votre avatar

brokensoul

est avec nous depuis le 16 mai 2006 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

239 commentaires

Avec Android 4.4.2, Google fait disparaître les permissions des applications

Le 16/12/2013 à 11h 12






Orshak a écrit :

Les fausses infos envoyées par une quelconque app “officielle” Cyanogen ça me ferait mal au cul tiens


prépare toi à avoir un petit peu mal alors.. ca s’appelle “Privacy Guard”, et c’est dans toutes les CM 10.2 (et 10.1 il me semble). Ce qui a changé, c’est l’implémentation initiale, qui refusait l’accès aux apps (et les faisait planter). Maintenant la position envoyée est juste bidon si tu actives privacy guard, ou ton carnet d’adresses est vide. Je l’utilise tout le temps depuis des mois, ca fonctionne bien..
exemple de description.
Condoléances pour ton c.l <img data-src=" />



Le 16/12/2013 à 09h 25

beaucoup mieux, la gestion des autorisations sous cyanogenmod permet de faire tout ca, sans que les applications ne plantent : de fausses infos sont juste envoyées si besoin <img data-src=" /> Encore une bonne raison de switcher <img data-src=" />


NVIDIA Prime : Optimus sous Ubuntu 14.04 via une interface graphique

Le 12/12/2013 à 21h 18






ben51 a écrit :

Arf je doit faire une blague quand je joue sous linux dans ce cas <img data-src=" />


je parle des pilotes libres. Tu perds au moins 30% de perfs avec par rapport aux Catalyst (cf. phoronix, pourtant les catalyst ne sont pas non plus glorieux), donc de mon côté je préfère penser que c’est une blague d’en parler comme une solution de substitution à des pilotes corrects (mais je te laisse libre de ton appréciation).



Le 12/12/2013 à 13h 42






ben51 a écrit :

Tu a un bon pilote libre et au pire tu peut te rabattre sur le proprio.


si tu joues un peu, c’est une blague le pilote libre Ati. Si tu veux de l’autonomie, c’est une blague aussi. Pour ma part j’ai déjà donné, j’ai changé de crèmerie…



Le 12/12/2013 à 10h 11

un peu hors topic là, non ? On parlait de Optimus supporté officiellement par nVidia sous linux <img data-src=" />


Le 12/12/2013 à 08h 49

doctormadness +1, c’est même super efficace avec Primusrun qui a pris la suite de bumblebee.
Pas complètement fiable par contre, j’ai quelques softs/jeux sur lesquels ca ne passe pas de manière complètement automatique (OpenCL ou jeux lancés via steam, quand steam est sous primusrun c’est automatique une fois sur deux)


Le Dell XPS 13 Developer Edition passe à Haswell, à partir de 1299 euros

Le 18/11/2013 à 11h 52

Dommage pour eux, j’avais hésité mais ils ont été super longs à passer à Haswell (et c’est quand même cher, malgré la finition au top apparemment). Passé sur un Clevo 230st pour ma part, moins cher et beaucoup plus puissant, aussi sous Linux, mais moins de batterie.


AMD vante les résultats de sa Radeon R9 290X face à la GeForce GTX 780

Le 18/10/2013 à 07h 53

Je comprends un peu la frustration de David, c’est assez lamentable ces infos au compte goutte, et pas très journalistique de diffuser des résultats aussi contrôlés. Bon, je suis quand même allé voir sur Anandtech, mais c’est un peu creux..


Microsoft observe les Steam Machines « avec grand intérêt »

Le 27/09/2013 à 12h 38






fraoch a écrit :

bah, certains disent que la carte mere de la X1 peut empiler des procs, et que du coup, en dessous de ce qu’on voit, MS aurait ajouté un GPU.
Apres j’en sais pas plus, et comme il devait y avoir des infos dessus je pensais voir un retour sur PCI (surtout que c’est dans les commentaires d’une news de debut de semaine que qqun en a parlé, c’est la que je me suis mis a chercher)

mais bon, y a des chances que ce ne soit que de l’intox


indeed, je ne sais même pas si c’est la peine d’en parler.. ou alors on parle aussi du complot mondial des chinois du FBI.



Le 27/09/2013 à 12h 37






statoon54 a écrit :

Ils peuvent être confiants si l’annonce d’AMD concernant l’API Low Level Mantle se révèle être l’API Low Level de la XBox One .
Je crois que ceux qu’y voyait Microsoft à la rue vont certainement prendre un coup sur la tête coté software .


gné ? c’est classique chez les consoles qu’il y ait ce type d’API, aucun avantage compétitif pour MS, il y a la même chose en face. Ce qui est nouveau, c’est que l’API fasse le voyage côté PC, c’est tout.



AMD dévoile ses Radeon R7 / R9, et déçoit

Le 26/09/2013 à 10h 10






David_L a écrit :

Oui donc pour toi le truc amazing dans les nouvelles Radeon, c’est :




  1. Le GPU Computing utilisé pour l’audio (youpi; révolution)

  2. L’API proprio conçue pour les consoles réutilisée pour déséquilibrer les perfs sur PC

    Je suis assez d’accord sur le fait que Mantle est une info importante. Mais :





  • Cela n’a rien à voir avec cette fausse nouvelle gamme

  • Cela ne sera pas utilisé avant un moment (et une update de BF4)

  • Cela aura aussi des implications négatives (mais on en reparlera)

  • Cela a été évoqué en fin de conf au bout de 2h30 (no comment)

    Pour le reste, pour une conf qui était censé vendre du rêve sur les GPU, ça a surtout parlé d’audio et de software. De toutes façons, étant donné que rien n’arrive en test avant mi-octobre, que la préco est prévue pour le 3 octobre, et qu’on reste sur une même archi, on ne pouvait pas tenir des heures. Mais du coup, on se demande l’intérêt d’une telle annonce, si tôt, et surtout sous cette forme.


    ah mais je n’ai pas dit que c’était amazing, il y a toute une palette de nuances possibles, j’ai juste dit que ce n’était pas décevant pour moi. Côté hardware pur c’est sûr qu’il n’y a pas eu grand chose de dit; mais pas mal d’autres trucs potentiellement intéressants. Je me demande par exemple ce qu’ils comptent faire de Mantle, si ça pourrait intégrer une norme ouverte, par exemple comme déclinaison plus bas niveau d’openGL. [Pas trop étonné qu’ils aient eu besoin de travailler là dessus sur les consoles au fait, vue la faiblesse des CPU de ces bécanes.] Sinon c’était plus une conf à la Apple, un peu de hard avec quelques chiffres clefs, et beaucoup sur les usages. Le hard et la technique viendront plus tard j’imagine..



Le 26/09/2013 à 09h 23






David_L a écrit :




  • Quelles perfs ? On a même pas la moindre spec (sauf Hawaii, mais on a pas grand chose non plus)


    • Pour la comparaison Titan, attend encore un peu à mon avis, vu ce sur quoi tout le monde se base… ;)

    • Les seuls prix donnés semblent indiquer une hausse (mais à voir dans la pratique, tout la gamme n’est d’ailleurs pas encore évoquée).

    • Ajout de peanuts pour l’audio je pense. Mais allez, avec un peu d’espoir, on va avoir du détail technique qui va tout changer.

      Bon après on peut être content d’avoir une gamme qui n’a rien de nouveau vu que tout est renommé sauf le modèle dont on ne sait pas le prix hein. Mais ce n’est pas mon cas. (sans parler de la conf désastreuse en elle même).


      pour les perfs, je me base juste sur les scores 3DMark annoncés, j’ai la faiblesse de penser qu’ils vont être au moins respectés.. Pour les prix j’ai dit que je n’en savais rien, et pour l’audio plusieurs sites (dont anandtech par exemple) disent que ce n’est pas annecdotique. Pas sûr que ça prenne à grande échelle si l’API n’est pas ouverte, mais ce n’est pas rien. Et Mantle est aussi intéressant, vu qu’AMD a le marché des consoles. La comparaison avec DX va être évidente avec BF4, si c’est vraiment un bonus en perfs d’autres studios suivront peut être.
      Beaucoup d’hypothétique, mais les perfs devraient être là, j’attends de voir mais je ne suis pas “déçu”.




Le 25/09/2013 à 23h 01

Je ne comprends pas très bien la déception :




  • à process égal (28nm), les perfs semblent nettement au dessus des 7970

  • perf apparemment similaires aux Titan pour un GPU beaucoup plus petit

  • pas d’info de prix

  • ajout de l’audio dans les capacités de calcul des GPU, après la physique et les textiles : pourquoi pas, à voir…

    à part le renommage d’une partie des cartes, je ne comprends pas très bien ce qui ne vous plaît pas <img data-src=" />


3DMark : les iPhone 5c et 5s face aux autres terminaux Apple et... Android

Le 20/09/2013 à 16h 21






Uther a écrit :

Je n’ai pas dit qu’a terme le 64bit, n’était pas intéressant, mais sur l’iPhone 5S, il n’en aura certainement pas. Vu que le matériel des téléphones n’est pas évolutif. Pour le moment le seul intérêt est marketing.

Le 64 bit sera peut-être utile au iphones 6 ou 7, mais sur un iPhone 5S, la plupart u temps, ça sera plutôt un souci.


Contre-argument évident : au contraire, acheter un 5c au lieu d’un 5s aujourd’hui n’a aucun sens : dans 2-3 ans la gamme Apple sera entièrement 64bits, et iOS 9 ou 10 ne sera plus compatible 32. Le 5s sera le dernier de la génération actuelle a être encore compatible, au moins un an de plus que le 5c.
Argument complètement différent : ARMv8, c’est pas seulement que les pointeurs passent à 64bits au lieu de 32, il y a deux transitions dans une seule (contrairement au x86/x86_64). Il y a plein de nouvelles instructions dans cette ISA, et quand le compilo les connaît le gain en performances n’est pas négligeable (cf. le test d’Anandtech avec Geekbench dans la version v7 et v8). Donc le 5s n’est pas seulement intéressant pour le 64bits, qui est pour le coup assez marketing, mais plus parce que c’est le plus “future proof” de toute la gamme Apple actuelle (en contant les iPad, Retina ou Mini).
Toujours pas près à switcher chez eux pour autant, mais c’est pour argumenter un peu.. <img data-src=" />



Le CPU de la Xbox One passe à 1,75 GHz : la stratégie du doigt mouillé

Le 04/09/2013 à 14h 35






Punkenjoy a écrit :

Enfin un commentaire avec un peu plus de sens !

Notons que :




  1. 8 coeur jaguar à 1.75 GHz ne demanderont pas énormément de bande passante mémoire. En réalité, la majorité de la bande passante mémoire sera utilisé par le IGPU. La latence plus faible pourra cependant être bénéfique dans une moindre mesure… mais très minimalement.


  2. l’EDRAM sera presque exclusivement utilisé par le IGPU, le CPU ne l’utilisera pas ou en aura pas besoin la plupart du temps mais pourrait s’en servir pour faire des modification dans ce qui est dans cette mémoire.


    je pense la même chose



  3. Parlant du contenu de cette mémoire, (L’EDRAM), ce sera principalement un buffer graphique. ça ne stockera pas probablement pas des données comme les textures mais des résultat intermédiaire de rendu ainsi que des images en cours d’être rendu.

    ça limite quand même son utilité par rapport à la GDDR5 qui est sur la PS4, et ça veut dire que la xb1 sera rapidement limitée par les textures. Le 4K est un peu une blague pour cette génération..


    De nos jours avec les moteurs de rendu de type différé, l’image est pré-rendu et plusieurs filtre y sont appliquer par la suite. Avec cette EDRAM, ce processus pourra se faire de manière encore plus efficace puisque malgré sa bande passante qui ne semble pas être si supérieur à la GDDR5, son temps d’accès et le nombre d’accès concurent sont bien meilleurs.

    La XBOX One est un peu moins bourrin mais plus rafiné. Microsoft avec DirectX a bien vu l’orientation que les moteurs de jeu ont prit et le design de la console reflète très bien ça. Si l’EDRAM a pu très bien faire ce genre de chose sur Xbox 360, pourquoi pas sur cette console.

    ça se discute, le processing sur le buffer en différé n’est pas forcément très long (antialiasing, blooming, lumières avec le z-buffer,..), et en tout les cas peu sensible à la latence (bon traitement gpu de bourrin, bien parallélisé, la latence initiale à l’accès ne pèse pas lourd par rapport au 60fps. Curieux de voir ce qui va en sortir encore une fois, je ne sais pas si MS a fait un truc plus “raffiné” mais certainement moins trivial à bien faire marcher. A côté de ça la PS4 va être bien simple, il faut juste threader et c’est parti, même plus simple que sur les PC actuels avec l’espace mémoire unifié (je parle en connaissance de cause, mon boulot c’est de faire du soft CUDA)


    Sinon, 175 mhz de plus sur un Jaguar? je doute que ça pose problème. En 40 mm les bobcat passe très bien à 2 GHz alors je ne verrait pas pourquoi un Jaguar ne passerait pas à 175 MHz. Oui il y a 8 coeur, mais encore la, rien d’extra ordinaire. ça demeure petit comparé à la partie graphique.

    bien d’accord, mais ce qui est intéressant ce n’est pas tant la faisabilité (évidemment que c’est faisable de faire un cpu x86 à 1.75GHz en 2013…) que le “pourquoi maintenant” ? à moins que microsoft se soit fait remonter les bretelles par des devs de jeux..



Le 04/09/2013 à 12h 56






Qruby a écrit :

Un extrait du test du dernier i3 d’intel. La remarque de HFR (sérieux site concernant les tests CPU/GPU) sur le gain apporté dans les jeux par rapport à 1MB de plus de cache processeur :

Il ne s’agit que d’un cache CPU ici, et pourtant le gain n’est pas négligeable. Donc un cache mémoire de 32Mo, si bien utilisé, pourrait effectivement compenser (en partie) les différences de bande passante entre la GDDR5 et la DDR3.





  • tu compares deux truc qui n’ont rien à voir. le cache du i3 dont parle HFR est un L2 ou L3, le cache du xBoxOne c’est de la eDRAM, beaucoup moins bas niveau et beaucoup moins rapide

  • comme déjà dit sur un commentaire précédent, s’avancer sur les effets est à mon sens un peu aléatoire. Par exemple sur un jeu limité par la gestion des textures, les 32m ne serviront pas à grand chose par rapport à la ram de la PS4.

  • comme j’en faisais la remarque, ces 32M de ram embarquée sont marginalement plus rapides que la DDR5 de la PS4 (100GB/s duplex contre 176GB/s sur un flux), mais énormément plus petits. Même Intel a mis 128M de cache sur ses processeurs Iris Pro, ça me semble soit petit soit lent. Mais je ne m’avancerait pas pour autant à prévoir le résultat..

  • ce qui est amusant avec cette génération, c’est que la PS4 va être facile à programmer (spécialement avec l’espace mémoire unifié), alors que la xb1 demandera une adaptation pour améliorer les perfs. Situation inversée par rapport à la xbox360/ps3



Le 04/09/2013 à 10h 14






Charly32 a écrit :

La mémoire cache a une capacité bien trop faible pour compenser une mémoire centrale “lente”.


pas du tout évident. Tu programmes des jeux sur Xbox One pour dire ça ? l’un ne remplace pas l’autre directement, mais si c’est bien exploité par les développeurs le résultat est difficilement prévisible. Pour info c’est aussi la stratégie retenue par Intel sur Iris Pro, pas nécessairement idiot même si ça introduit une différence bas niiveau lors du portage PC -&gt; XB1 (contrairement à la PS3). Ce qui est surtout gênant avec ce cache à mon sens, c’est qu’il n’a finalement pas une bande passante extraordinaire. 100GB/s dans les deux sens avec les 32M de cache, tandis que la PS4 est à 176GB/s dans un sens avec ses 8G de ram… La latence est bien plus faible pour le cache de la XB1, mais la vitesse est étonnament basse..



Le 04/09/2013 à 10h 06

La fréquence doit être assez large avec ces processeurs, c’est juste un curseur lié au dégagement thermique et à la conso.. Un peu étonnant cet ajustement de dernière minute, à moins que ce soit lié à un problème de perfs : Sony et MS n’ont pas la même stratégie quant à la gestion de l’interface pendant le jeu, MS a annoncé que les deux (jeu et interface) tourneront en parallèle sur deux kernels différents, tandis que Sony fait un switch de programme sur le même kernel. En conséquence MS avait annoncé bloquer un CPU pour son interface, et s’est peut être fait taper sur les doigts par les développeurs. Un bon moyen de se rachèter une égalité en termes de puissance disponible par ce biais ? (71.75 ~= 81.6)


CyangenMod 10.2 : les premières « Nightlies » à base d'Android 4.3 sont là

Le 14/08/2013 à 07h 46

yeah, dispo pour LG Optimus 4X HD :)


Qt 5.1 introduit le support préliminaire d'iOS et Android

Le 05/07/2013 à 11h 18

La démo en qml est vraiment super impressionnante je trouve, pas super expérimenté dans les GUI mais ça semble hyper facile ! Dire que c’est une des pépites de Nokia vendue pour trois fois rien..


Canon EOS 70D : un reflex de 20 Mpixels avec un autofocus dédié à la vidéo

Le 03/07/2013 à 12h 55






ragoutoutou a écrit :

Mwais, bof… quand c’est mal fait c’est mal fait… Toujours marrant de voir des entreprises débarquer avec des formats bâclés qui auraient valu à leurs auteurs d’être recalés s’ils avaient suivi des cours d’info… après, on invoque le pragmatisme, mais le mal est fait, et le résultat est toujours minable.

sinon, Nikkon, ils chiffrent toujours les infos de traitement boîtier comme la balance des blancs dans leurs NEF?


je ne connais pas assez pour dire que c’est bâclé, globalement ils ne font pas que des bêtises non plus chez Nikon. C’est un peu prétentieux de penser que je ferais mieux, du coup je ne le dis pas. Aussi possible qu’ils fassent des trucs logiques mais que je n’aie pas les éléments pour les comprendre, mais encore faut t’il l’envisager..
Il y a une partie de compression de la partie entropique dans le jpg, sans perte, c’est a priori pas idiot du tout de la réutiliser quand tu fais un RAW pour qu’il prenne moins de place, et que le même circuit (qui est câblé en dur pour du jpg) reserve. Les octets en plus, comme je l’ai dit plus haut, c’est ultra classique en traitement d’image, c’est pour aligner les accès mémoire (qu’une ligne de l’image soit un multiple de la largeur de ton bus mémoire). Après si tu prétends que les ingés Nikon ne savent pas ce qu’ils font et que tu fais forcément mieux, envoie leur un CV…



Le 02/07/2013 à 22h 24






raoudoudou a écrit :

Ah si, il est pire sur certains modèles! Foutre les données de l’image dans des blocs JPG, à la suite d’un TIFF, sans l’intégrer dans un tag du TIFF, c’est méga-porc! Après, c’est documenté, ok, mais c’est complètement capillo-tracté d’avoir fait ça!


ah ensuite, les goûts et les couleurs.. ;-) pas mal de choix doivent se justifier quand même, dont les octets supplémentaires dont tu parlais précédemment, c’est du padding pour mieux aligner en mémoire (je ne sais pas pour les blocs jpgs par contre). Je parlais surtout de la situation “extérieure” : le NEF est globalement bien supporté (notamment par l’opensource), et les fichiers sont assez compacts pour ne pas se poser la question par rapport à un jpg



Le 02/07/2013 à 21h 35






CaptainDangeax a écrit :

Sans vouloir couper les cheveux en quatre, raw, ça veut dire données brutes. Donc pas de header contenant les informations sur le format. Et pourtant c’est lisible.


rien à voir, le “brut” en question veut juste dire que les informations captées par le capteur sont présentes sans traitement (théoriquement, Pentax entre autres ne le respecte pas toujours), c’est à dire sans demosaicing, avec la dynamique originale (12 ou 14 bits en général) et sans traitement anti-bruit préalable. RAW ne veut pas dire “en vrac”, ça n’a pas de sens de dire ça. Un fichier informatique n’est pas lisible si on ne connaît pas la structure de l’enregistrement, renseigne toi quand tu ne connais pas. (exemple bête : ligne par ligne, colonne par colonne, pixels pairs puis impairs, tous les rouges puis tous les verts puis tous les bleus ?)


Peut-on dire, d’un point de vue philosophique, qu’un fichier de taille non nulle n’a pas de format ? Et que donc, les données contenues ne sont qu’un ensemble d’octets ou de bits sans signification ?

<img data-src=" />


Pourquoi je râle sur Nikon ? Parce que mon frère qui est très content de son LinuxMint 13 ne pouvait pas ouvrir les photos que son collègue avait fait lors de leur dernière régate, avec un Nikon. Il a fallu redemander après conversion dans un format plus ouvert…

redite, le seul format ouvert et répandu pour les photos RAW que je connaisse vient d’Adobe, c’est DNG. Ensuite le NEF de Nikon n’est pas parfait mais il n’est pas pire que les autres, et très (très) bien supporté sous linux (si Mint ne sait pas le lire, c’est de leur faute, certainement pas de la faute de Nikon. Kubuntu n’a pas de soucis par exemple..)


Enfin, comparer les poids entre le JPG et le format proprio n’a pas de sens, vu qu’en jpeg, on peut régler la compression de complètement pourri à lossless. De plus, un fichier déjà compressé ne peut pas être recompressé (sinon on finirait pas atteindre le bit ultime de la connaissance universelle absolue).

Pour quelqu’un qui prend des photos ça a du sens (mais tu ne dois pas en prendre alors), ou alors pour quelqu’un qui sait de quoi il parle (sans doute pas ton cas non plus). Quand tu prends des photos, tu as le choix du format d’enregistrement. A priori c’est toujours mieux en RAW, puisque tu as toutes les infos (pas le cas en jpg, pas possible de faire du lossless en jpg, tu as le droit de te renseigner sur les pertes quand on passe de 12 bits d’échantillonnage sur du RAW en général à 8 bits sur du jpg..); Le problème du RAW de base, c’est que la photo pèse hyper lourd (3-5x la jpg équivalente, au moins). Le problème qui va avec, c’est que ça ralenti la cadence de l’appareil, puisqu’il doit aussi stocker ça dans son buffer et l’écrire sur la carte. Un début de solution pas con, c’est de comprimer (sans perte, comme un zip) ce RAW, pour qu’il ne prenne pas trop de place. Et non, si tu mets une information en vrac “sans header” comme tu dis, elle n’est pas comprimée. Donc tu vois, ça ne coule pas de source.
Alors non, les RAW Nikon au format NEF qui prennent deux fois la place de la jpg en compression fine (moins de 10Mo pour un 12MP), c’est pas idiot.



Le 02/07/2013 à 11h 29






CaptainDangeax a écrit :

Le Nikon, je ne regarde même pas. Parce que chez Nikon on a sa propre version de compression de l’image, au lieu des formats incontournables RAW et JPEG. Du coup, si t’as pas la bonne version du soft Nikon pour le bon appareil et la bonne version de Ouïdoze, tu peux le vendre sur leboncoin, ton appareil. Très peu pour moi, je reste chez Canon.


grosse blague, le RAW n’est pas un format pour ton information, ce n’est pas standardisé. Chez NIkon c’est du NEF, très bien supporté par plein de softs open-source, sûrement pas parfait mais il a l’avantage d’être compressé sans perte (poids juste 2x les jpg). Canon aussi a son format proprio, il n’y a que Pentax qui joue le jeu des formats ouverts avec le DNG en option.



Curiosity : des panoramiques de 1,3 milliard de pixels de la surface de Mars

Le 21/06/2013 à 09h 17

silverlight de m.rde, parfait. Merci la NASA <img data-src=" />


Bing suggère que la Xbox One est « puissante », Google « moche »

Le 19/06/2013 à 15h 07

sur la version anglaise de google :
xbox one is :




  • bad

  • a joke


    <img data-src=" />


Raspberry Pi : grosse mise à jour pour Raspbmc, une surprise pour juillet

Le 19/06/2013 à 08h 56






fedox a écrit :

Avec Openelec j’ai la possibilité d’utiliser Airplay avec XBMC. Ça doit être pareil avec Raspbmc non?


ça fonctionne avec un périphérique Apple, mais pas à partir d’Android par exemple, le protocole est un peu cassé.. (rétro-engineering)



Le 18/06/2013 à 13h 59

pas d’update de la prise en charge de AirPlay <img data-src=" />


[Dossier PCi] OS X Mavericks : le tour en images des principales nouveautés

Le 13/06/2013 à 14h 57






Glouk a écrit :

Pourquoi ? Ça coûte cher d’ouvrir des fenêtres ?
Non, sérieusement : d’où vient cette allergie à l’ouverture de fenêtres ?





  • ça ralenti la sélection de fenêtres dans exposé/alt-tab

  • ça encombre inutilement la barre de tâches ou le dock

  • quel point positif ?

    Et bien je vais te citer le cas auquel tu n’as apparemment pas pensé, alors qu’il est à mon avis bien plus fréquent que 10 % des cas d’utilisation : le glisser-déposer d’un dossier à un autre. + blabla
    Le truc qui fait que les onglets ne m’intéressent pas dans le Finder (alors que dans un navigateur web j’en use et abuse), c’est ça.

    tu as le droit de lire les messages auxquels tu tentes de répondre. Je disais justement que ce cas là n’est pas géré par les onglets, mais par la possibilité de voir deux dossiers en même temps dans une seule fenêtre, ce que Dolphin fait très bien (et pas Finder apparemment, et pas MS Explorer).


    J’ai écrit quelque chose de bien plus précis, au sens très différent : j’ai écrit que les gens fans du concept des onglets dans le Finder le sont (à mon avis — ça, je ne l’ai pas écrit, mais c’est évident) parce qu’ils ne savent pas gérer correctement le fait d’avoir plusieurs fenêtres ouvertes. D’où un inconfort de leur part face à une telle situation. D’où un fort intérêt de leur part pour un système qui permet d’éviter d’arriver à une telle situation.

    “ceux qui ne pensent pas comme moi ont tort”, j’adore


    Et tu affirmation comme quoi « une bonne gestion des fenêtres ça commence déjà par éviter d’en ouvrir pour rien » ne fait que me conforter dans cet avis.

    quel intérêt à ouvrir deux fenêtre quand tu fais la même chose dans une seule fenêtre ?



Le 13/06/2013 à 14h 04






Glouk a écrit :

Enfin, « bienvenu »… bof, bof… Seulement pour quelques transfuges geeks ne sachant pas gérer leurs fenêtres, parce que pour les autres…
M’enfin, comme ça a déjà été dit : tant qu’on n’est pas obligé de les utiliser, les onglets, on ne va pas râler. Si ça peut faire plaisir à quelques uns et nous éviter de voir cette demande répétée sans cesse sur les forums… :-)


Ouvrir plusieurs explorateurs de fichiers, une fois qu’il y a des onglets, c’est juste inutile dans 90% des cas. Une bonne gestion des fenêtres ça commence déjà par éviter d’en ouvrir pour rien. Un cas utile dans les 10% restants serait de pouvoir comparer visuellement le contenu de deux dossiers simultanément, mais ça c’est aussi présent depuis longtemps dans Dolphin sans avoir besoin d’en ouvrir deux, et ultra pratique…
J’adore le ton condescendant sinon, parce qu’évidemment tu sais ce qui est bon ou non, et les autres ne sont que des “ne sachant pas”. <img data-src=" />



Le 13/06/2013 à 10h 32






Glouk a écrit :

Oui, exactement comme dans Exposé depuis Panther (10 ans déjà), dont ce mode a repris fidèlement le comportement.
Du coup, évoquer ça pour parler de réchauffé chez Apple, c’est rigolo. :-)


l’article de Vincent en parle comme étant une nouveauté, mais je n’ai pas de Mac, donc je ne pouvais pas savoir que ça fonctionnait déjà comme ça. Du coup je ne comprends pas très bien la nouveauté apportée par 10.9 ? Les modes plein écran dissociés ne semblent pas vraiment nouveaux non plus, en tout cas pas sous KDE, je ne suis pas sûr de bien comprendre l’apport de 10.9 (mis à part la barre qui est dupliquée ?). Pour les onglets dans le Finder pas de débat, c’est bien du photocopié (bienvenu, certes), l’absence d’évolution de ce point de vue sous windows est un peu dommage (explorer n’a presque pas changé depuis win 98..)



Le 13/06/2013 à 08h 28






DorianMonnier a écrit :

J’ai utilisé pendant quelques temps KDE sur un dual-screen, et j’ai toujours eu le problème que deux écrans n’étaient justement pas indépendant :




  • L’exposé s’activer sur tous les écrans (quand t’as un film sur le second en plein écran, c’est chiant )

  • Les bureaux sont synchronisées, si tu changes de bureau sur l’écran 1, l’écran 2 suit, là encore, c’est pas franchement pratique.

    La seule parade “valable” que j’avais, c’était de mettre des fenêtres en mode “afficher sur tous les bureaux” sur l’écran secondaire pour les avoir toujours visible, même quand je changeais de bureau sur l’écran 1.


    justement, pour MacOS le comportement est d’après l’article le même que KDE, “mission control” se lance en simultané. Mis à part le cas du film (mais je fais rarement autre chose pendant un film), j’ai du mal à voir le problème..
    Sinon je suis un peu scotché par le système des mots de passe appris par MacOS/iOS dans un contexte concurrentiel : un bon piège pour retenir tout le monde, la galère des identifications étant promise à ceux qui switchent de système..



Le 12/06/2013 à 21h 46






zogG a écrit :

Tu peux associer un bureau virtuel à chaque écran physique et qu’ils soient totalement indépendant sur combien d’OS?

E cherchant vite fait sur google je tombe que sur des gars qui voudraient le faire mais qui ne peuvent pas, y’a même un bug ouvert sur le KDE concernant cette feature.

(c’est une vrai question)


le plein écran sur chaque écran, ou le “mission control” sur chacun d’entre eux automatiquement, c’est depuis longtemps sur KDE. Idem quand tu passes en vue générale de tous les bureaux virtuels, ceux-ci prennent en compte automatiquement les deux écrans et un mode “exposé” indépendant est affiché sur chacun d’entre eux (par exemple).
Les barres ne se dupliquent pas automatiquement par contre, et je ne suis pas trop sûr de ce que tu demandes avec un “bureau virtuel indépendant”. C’est sûrement pas équivalent avec ce que propose Apple, je ne débattrai pas là dessus, mais il y a quand même beaucoup de réchauffé dans leurs annonces..



Le 12/06/2013 à 15h 43

Onglets dans le Finder et gestionnaire de mots de passe &lt;3 Dans KDE depuis des lustres <img data-src=" />


Alienware : SLI de GeForce GTX 780M et Core i7 overclocké à 4,3 GHz

Le 12/06/2013 à 07h 30






Malesendou a écrit :

Les Razer Blade… S’te blague… Des prix très haut de gammes pour des perfs moyennes… ^^

Et oui, les machines sont belles, fines, et tout… Mais y a de formule magique, tu peux pas avoir l’un et l’autre en même…

C’est pour ça que les portables de gamers sont tous des transportable.


il y a un marché pour des machines plus puissantes que des ultrabooks et plus transportables que les grosses machines de gamers, c’est exactement ce que sont les MBP. Je cherche un truc comme ça depuis quelques mois, dur à trouver côté PC, et les Razer Blade sont pas mal à ce niveau (mis à part leur dalle TN). Il n’y a pas que la puissance dans la vie, sinon je prendrais une tour et une batterie de voiture…



Le 11/06/2013 à 11h 46

Dommage par rapport aux Razer Blade, il manque une gamme peut être un peu moins puissante mais beaucoup plus transportable (genre MBP). C’est quand même fou qu’un constructeur comme Dell/Alienware ne soit pas fichu de gérer ce qu’une petite boîte comme Razer arrive à faire..
Toujours en recherche d’un 14”/petit 15” puissant et durable autre que le MBP pour ma part..


Half-Life 2 et ses dérivés disponibles sous Steam pour Linux

Le 10/05/2013 à 10h 03






js2082 a écrit :

Vu qu’Half-life fonctionne sous opengl, le portage sous linux n’a pas l’air si compliqué que ça au final.


justement, je crois que source n’était pas sous opengl, c’était tout le problème..http://en.wikipedia.org/wiki/Source_(game_engine)
les versions postérieures sont opengl, mais c’était du boulot pour faire ça



Le 10/05/2013 à 09h 42






ldesnogu a écrit :

Je pense que ce sont les dev de GW2 qui se sont foutus de la g. des gens. A regarder le code source de Doom 3, bien sur qu’il y a des specificites pour OS X, mais rien d’enorme ou complique.


ça dépend vraiment du moteur utilisé, enfin surtout de s’il est basé sur opengl et dx. Pas si compliqué que ça à mon sens si le moteur est opengl, pas contre horriblement long si le moteur est directX, puisqu’il faut a priori tout réécrire. C’est là que Valve a été malin : ils traduisent tous les appels direct en openGl, mais après la compilation de leur moteur, ils n’ont rien réécrit apparemment. Le point positif, c’est que je crois qu’ils proposent leur soft aux autres développeurs, mais peut être contre $$. Dernier point : plutôt bien pour le futur à mon sens, OpenGL prend vraiment la main grâce au jeu mobile (exclusivement OpenGL sauf WindowsPhone), du coup j’ai bon espoir pour les moteurs des jeux à venir qui seraient basés là dessus.



Le 10/05/2013 à 09h 38

Woooo, trop content <img data-src=" /> HL2 en téléchargement, c’est parti.. La bibliothèque de jeux Steam sous linux se rempli lentement mais sûrement, pas représentatif mais j’ai maintenant 45 de mes 87 jeux steam qui sont cross-platform, ça fait plaisir de ne pas avoir à rebooter.


Tablettes : ASUS sur le podium, Microsoft déjà le cinquième constructeur

Le 03/05/2013 à 09h 04






Tolor a écrit :

MS n’avait pas d’OS sur tablette avant, il en a un maintenant, c’est donc en effet ses premiers mois.

C’était pareil à l’époque des premières tablettes Android. Un nouvel OS, même si une version précédente existait déjà pour téléphone.


Ensuite ce sera le premier OS sur une tablette 7 pouces, ou sur une tablette avec les bords bleus ? Comme tu veux, en fait je m’en fiche un peu, chacun ses critères et la discussion tourne un peu en rond dans les commentaires. AMHA ce n’est pas une franche réussite pour Microsoft, parce la décision d’y aller en tant que constructeur ne peux fonctionner pour eux que s’ils font un carton. Les autres constructeurs de tablettes sous WinRT ont dit plusieurs fois qu’ils ne pourraient pas rivaliser avec MS sur ce terrain, puisque la Surface n’a pas de licence à payer, donc c’est comme au poker : si tu fais OS et Hardware, il faut cartonner tout seul, c’est tout.
De mon point de vue c’est raté, puisqu’on était au pic de forme de WinRT (tablette toute neuve et offres de Samsung et Acer notamment), et qu’a priori les autres constructeurs ne sortiront pas de nouveaux modèles, mais chacun son point de vue… Le pseudo débat sur la nouveauté n’a pas trop de sens pour moi, Windows n’a pas besoin d’être présenté, c’est l’OS historique et évident pour la plupart des gens. Ensuite chacun peut se raccrocher aux branches s’il veut.



Le 03/05/2013 à 08h 19






Tolor a écrit :

Pas quand c’est les premiers mois de vie de l’OS


c’est une blague cet argument, l’OS prend la suite de WP sur l’embarqué, la nouveauté n’a rien à voir.
Mise en situation :
Belle perf pour Android, pour les premiers mois de l’OS Jelly Bean <img data-src=" />

C’est pas parce que microsoft multiplie les sorties d’OS qu’il faut leur accorder le bénéfice de la nouveauté à tout bout de champ..



Le 03/05/2013 à 07h 14






FFManiac a écrit :

Arriver à caser 1.8 millions de tablettes en 3 mois pour un système vieux de 6 c’est pas si mal, tu ne crois pas ?






  • les chiffres sont sur 3 mois pour tout le monde, pas seulement pour microsoft.. ^^ Pas vraiment une performance à mon sens, à 3-4% du marché ce n’est pas ce qu’on pourrait appeler un raz de marée

  • il s’agissait des meilleurs mois pour MS, puisque la surface était encore récente, et que la sortie de win8 rendait le système plus connu. S’il n’y a pas de nouveau modèle bientôt ça ne va que baisser, il n’y a plus l’attrait de la nouveauté (et le tegra3 est bien en deçà des derniers modèles, surtout que winRT ne gère même pas le companion core)

    Donc non, je ne crois pas que ce soit “pas si mal”. Les 34 des autres fabricants de tablettes RT ont annulé leurs modèles faute de demande (Samsung, Acer), pas franchement de quoi se réjouir.



CyanogenMod 10.1 M3 : Android 4.2.2 arrive sur de nouveaux terminaux

Le 15/04/2013 à 13h 29






sweetynico a écrit :

Au passage, ne rencontres tu pas des soucis d’autonomie ? sur mon sensation elle est divisée par 2


Pas de soucis avec la Rom d’albinoman, ensuite ça dépend beaucoup du gouverneur utilisé. En règle générale badass est vraiment très bon pour la batterie, ondemand peut être plus court. Une journée et demie avec synchronisation et wifi tout le temps (hors nuit) (batterie Anker), ça me va bien :-)



Le 15/04/2013 à 11h 32

Pas mal d’autres terminaux pas officiels, mais qui fonctionnent très bien. HTC Sensation sous CM10.1 de mon côté, nickel


NVIDIA apporte le support préliminaire d'Optimus sous Linux

Le 10/04/2013 à 16h 51






brazomyna a écrit :

Non, ce qu’ils ont dit c’est que vue l’architecture de XOrg il était impossible d’envisager d’intégrer ne serait-ce qu’un support partiel sous linux, les deux étant incompatibles.

Leurs propres dires, c’était bien d’avancer une impossibilité technique sans modifier en profondeur XOrg, pas autre chose.


Bumblebee a quand même montré que c’était possible.. un peu pédestre, mais ça fonctionne quand même très bien !

Bref. contrairement à ma dernière machine où j’avais naïvement crû qu’une machine sous optimus était convenable (puisque je pourrais désactiver le GPU NVidia pour ne garder que l’Intel), mes prochaines machines, c’est de l’IGP Intel only.

Hmm, un peu d’accord, mais j’attends de voir ce que donne nvidia/optimus et Haswell avant de me décider <img data-src=" />



Le 10/04/2013 à 16h 49






RaYz a écrit :

Ben apparemment ils utilisent une liste d’appli qui doivent démarrer sur la carte, je vois toujours pas ce qu’il y’a d’extraordinaire.


dans le détail c’est quand même pas nécessairement évident, puisque ton écran reste branché sur la même prise.. Du coup il faut que ta puce nvidia aille écrire le résultat (l’image calculée) dans le buffer de la carte intel (que tu ne peux pas complètement éteindre du coup il me semble). C’est quand même de la mécanique, d’autant plus que tu ne veux idéalement pas voir le switch à l’écran quand la carte se réveille.. (le clignotement qui se faisait avec les anciennes solutions, quand tu switch entre le buffer de l’iGP et celui du GPU)



Windows Phone 8 devrait gérer les écrans Full HD d'ici la fin de l'année

Le 10/04/2013 à 08h 04






darth21 a écrit :

Ils suivent les évolutions techniques, et c’était évident qu’ils allaient le faire, mais dire qu’ils sont en retard, c’est une question de point de vue.


il existe une définition du retard dans le dictionnaire, et ça y correspond. Microsoft a toujours eu un retard dans l’exécution assez incroyable avec WP, ça commençait avec les dual core. Idem avec WinRT, et le companion core des Tegra qui n’est pas géré (quand bien même il s’agirait de la plate forme officielle). Pas possible de tourner ça autrement, c’est un fait, et c’est négatif. Si tu ne veux pas de FulllHD tu achètes autre chose, mais c’est toujours mieux d’avoir le choix.



Google Reader fermera ses portes le 1er juillet, quelles conséquences ?

Le 14/03/2013 à 08h 53

C’était le site de google que j’utilisais le plus souvent, après gmail.. Bon, décision un peu bizarre je trouve, ça ne devait pas leur coûter bien cher vu le peu d’évolutions et ça devait leur apprendre beaucoup sur la qualité et les liens entre les sites. Pas mal énervé ce matin en lisant ça..


HP lance un PC tout-en-un sous Ubuntu pour 349 £

Le 06/03/2013 à 10h 38

Pas mal du tout, une machine pour grand-parents… Bien content de voir ce genre de trucs, peut être un achat dans pas longtemps si ça sort en France. JE ne comprends pas trop la critique sur la résolution, c’est un 20” (donc 1600*900 ce n’est pas dégoûtant) à 400€.. (à peine plus qu’un netbook). Le proc aurait sans doute pu être plus puissant, mais bon, Ubuntu est quand même léger.


XP13 Developper Edition : l'Ultrabook Ubuntu de Dell est à 999 € HT en France

Le 05/03/2013 à 12h 09






Superambre a écrit :

en + : un bon cpu, un SSD et 8go de ram
en - : un écran de merde, pas de carte gfx

à 1200€ tu as mieux que ça


un lien pour “mieux que ça” ?

en - je dirais surtout les deux ports USB (un 2 et un 3) et les aérations en dessous apparemment.