Les fausses infos envoyées par une quelconque app “officielle” Cyanogen ça me ferait mal au cul tiens
prépare toi à avoir un petit peu mal alors.. ca s’appelle “Privacy Guard”, et c’est dans toutes les CM 10.2 (et 10.1 il me semble). Ce qui a changé, c’est l’implémentation initiale, qui refusait l’accès aux apps (et les faisait planter). Maintenant la position envoyée est juste bidon si tu actives privacy guard, ou ton carnet d’adresses est vide. Je l’utilise tout le temps depuis des mois, ca fonctionne bien..
beaucoup mieux, la gestion des autorisations sous cyanogenmod permet de faire tout ca, sans que les applications ne plantent : de fausses infos sont juste envoyées si besoin " /> Encore une bonne raison de switcher " />
Arf je doit faire une blague quand je joue sous linux dans ce cas " />
je parle des pilotes libres. Tu perds au moins 30% de perfs avec par rapport aux Catalyst (cf. phoronix, pourtant les catalyst ne sont pas non plus glorieux), donc de mon côté je préfère penser que c’est une blague d’en parler comme une solution de substitution à des pilotes corrects (mais je te laisse libre de ton appréciation).
Le
12/12/2013 à
13h
42
ben51 a écrit :
Tu a un bon pilote libre et au pire tu peut te rabattre sur le proprio.
si tu joues un peu, c’est une blague le pilote libre Ati. Si tu veux de l’autonomie, c’est une blague aussi. Pour ma part j’ai déjà donné, j’ai changé de crèmerie…
Le
12/12/2013 à
10h
11
un peu hors topic là, non ? On parlait de Optimus supporté officiellement par nVidia sous linux " />
Le
12/12/2013 à
08h
49
doctormadness +1, c’est même super efficace avec Primusrun qui a pris la suite de bumblebee.
Pas complètement fiable par contre, j’ai quelques softs/jeux sur lesquels ca ne passe pas de manière complètement automatique (OpenCL ou jeux lancés via steam, quand steam est sous primusrun c’est automatique une fois sur deux)
Dommage pour eux, j’avais hésité mais ils ont été super longs à passer à Haswell (et c’est quand même cher, malgré la finition au top apparemment). Passé sur un Clevo 230st pour ma part, moins cher et beaucoup plus puissant, aussi sous Linux, mais moins de batterie.
Je comprends un peu la frustration de David, c’est assez lamentable ces infos au compte goutte, et pas très journalistique de diffuser des résultats aussi contrôlés. Bon, je suis quand même allé voir sur Anandtech, mais c’est un peu creux..
bah, certains disent que la carte mere de la X1 peut empiler des procs, et que du coup, en dessous de ce qu’on voit, MS aurait ajouté un GPU.
Apres j’en sais pas plus, et comme il devait y avoir des infos dessus je pensais voir un retour sur PCI (surtout que c’est dans les commentaires d’une news de debut de semaine que qqun en a parlé, c’est la que je me suis mis a chercher)
mais bon, y a des chances que ce ne soit que de l’intox
indeed, je ne sais même pas si c’est la peine d’en parler.. ou alors on parle aussi du complot mondial des chinois du FBI.
Le
27/09/2013 à
12h
37
statoon54 a écrit :
Ils peuvent être confiants si l’annonce d’AMD concernant l’API Low Level Mantle se révèle être l’API Low Level de la XBox One .
Je crois que ceux qu’y voyait Microsoft à la rue vont certainement prendre un coup sur la tête coté software .
gné ? c’est classique chez les consoles qu’il y ait ce type d’API, aucun avantage compétitif pour MS, il y a la même chose en face. Ce qui est nouveau, c’est que l’API fasse le voyage côté PC, c’est tout.
Oui donc pour toi le truc amazing dans les nouvelles Radeon, c’est :
Le GPU Computing utilisé pour l’audio (youpi; révolution)
L’API proprio conçue pour les consoles réutilisée pour déséquilibrer les perfs sur PC
Je suis assez d’accord sur le fait que Mantle est une info importante. Mais :
Cela n’a rien à voir avec cette fausse nouvelle gamme
Cela ne sera pas utilisé avant un moment (et une update de BF4)
Cela aura aussi des implications négatives (mais on en reparlera)
Cela a été évoqué en fin de conf au bout de 2h30 (no comment)
Pour le reste, pour une conf qui était censé vendre du rêve sur les GPU, ça a surtout parlé d’audio et de software. De toutes façons, étant donné que rien n’arrive en test avant mi-octobre, que la préco est prévue pour le 3 octobre, et qu’on reste sur une même archi, on ne pouvait pas tenir des heures. Mais du coup, on se demande l’intérêt d’une telle annonce, si tôt, et surtout sous cette forme.
ah mais je n’ai pas dit que c’était amazing, il y a toute une palette de nuances possibles, j’ai juste dit que ce n’était pas décevant pour moi. Côté hardware pur c’est sûr qu’il n’y a pas eu grand chose de dit; mais pas mal d’autres trucs potentiellement intéressants. Je me demande par exemple ce qu’ils comptent faire de Mantle, si ça pourrait intégrer une norme ouverte, par exemple comme déclinaison plus bas niveau d’openGL. [Pas trop étonné qu’ils aient eu besoin de travailler là dessus sur les consoles au fait, vue la faiblesse des CPU de ces bécanes.] Sinon c’était plus une conf à la Apple, un peu de hard avec quelques chiffres clefs, et beaucoup sur les usages. Le hard et la technique viendront plus tard j’imagine..
Le
26/09/2013 à
09h
23
David_L a écrit :
Quelles perfs ? On a même pas la moindre spec (sauf Hawaii, mais on a pas grand chose non plus)
Pour la comparaison Titan, attend encore un peu à mon avis, vu ce sur quoi tout le monde se base… ;)
Les seuls prix donnés semblent indiquer une hausse (mais à voir dans la pratique, tout la gamme n’est d’ailleurs pas encore évoquée).
Ajout de peanuts pour l’audio je pense. Mais allez, avec un peu d’espoir, on va avoir du détail technique qui va tout changer.
Bon après on peut être content d’avoir une gamme qui n’a rien de nouveau vu que tout est renommé sauf le modèle dont on ne sait pas le prix hein. Mais ce n’est pas mon cas. (sans parler de la conf désastreuse en elle même).
pour les perfs, je me base juste sur les scores 3DMark annoncés, j’ai la faiblesse de penser qu’ils vont être au moins respectés.. Pour les prix j’ai dit que je n’en savais rien, et pour l’audio plusieurs sites (dont anandtech par exemple) disent que ce n’est pas annecdotique. Pas sûr que ça prenne à grande échelle si l’API n’est pas ouverte, mais ce n’est pas rien. Et Mantle est aussi intéressant, vu qu’AMD a le marché des consoles. La comparaison avec DX va être évidente avec BF4, si c’est vraiment un bonus en perfs d’autres studios suivront peut être.
Beaucoup d’hypothétique, mais les perfs devraient être là, j’attends de voir mais je ne suis pas “déçu”.
Le
25/09/2013 à
23h
01
Je ne comprends pas très bien la déception :
à process égal (28nm), les perfs semblent nettement au dessus des 7970
perf apparemment similaires aux Titan pour un GPU beaucoup plus petit
pas d’info de prix
ajout de l’audio dans les capacités de calcul des GPU, après la physique et les textiles : pourquoi pas, à voir…
à part le renommage d’une partie des cartes, je ne comprends pas très bien ce qui ne vous plaît pas " />
Je n’ai pas dit qu’a terme le 64bit, n’était pas intéressant, mais sur l’iPhone 5S, il n’en aura certainement pas. Vu que le matériel des téléphones n’est pas évolutif. Pour le moment le seul intérêt est marketing.
Le 64 bit sera peut-être utile au iphones 6 ou 7, mais sur un iPhone 5S, la plupart u temps, ça sera plutôt un souci.
Contre-argument évident : au contraire, acheter un 5c au lieu d’un 5s aujourd’hui n’a aucun sens : dans 2-3 ans la gamme Apple sera entièrement 64bits, et iOS 9 ou 10 ne sera plus compatible 32. Le 5s sera le dernier de la génération actuelle a être encore compatible, au moins un an de plus que le 5c.
Argument complètement différent : ARMv8, c’est pas seulement que les pointeurs passent à 64bits au lieu de 32, il y a deux transitions dans une seule (contrairement au x86/x86_64). Il y a plein de nouvelles instructions dans cette ISA, et quand le compilo les connaît le gain en performances n’est pas négligeable (cf. le test d’Anandtech avec Geekbench dans la version v7 et v8). Donc le 5s n’est pas seulement intéressant pour le 64bits, qui est pour le coup assez marketing, mais plus parce que c’est le plus “future proof” de toute la gamme Apple actuelle (en contant les iPad, Retina ou Mini).
Toujours pas près à switcher chez eux pour autant, mais c’est pour argumenter un peu.. " />
8 coeur jaguar à 1.75 GHz ne demanderont pas énormément de bande passante mémoire. En réalité, la majorité de la bande passante mémoire sera utilisé par le IGPU. La latence plus faible pourra cependant être bénéfique dans une moindre mesure… mais très minimalement.
l’EDRAM sera presque exclusivement utilisé par le IGPU, le CPU ne l’utilisera pas ou en aura pas besoin la plupart du temps mais pourrait s’en servir pour faire des modification dans ce qui est dans cette mémoire.
je pense la même chose
Parlant du contenu de cette mémoire, (L’EDRAM), ce sera principalement un buffer graphique. ça ne stockera pas probablement pas des données comme les textures mais des résultat intermédiaire de rendu ainsi que des images en cours d’être rendu.
ça limite quand même son utilité par rapport à la GDDR5 qui est sur la PS4, et ça veut dire que la xb1 sera rapidement limitée par les textures. Le 4K est un peu une blague pour cette génération..
De nos jours avec les moteurs de rendu de type différé, l’image est pré-rendu et plusieurs filtre y sont appliquer par la suite. Avec cette EDRAM, ce processus pourra se faire de manière encore plus efficace puisque malgré sa bande passante qui ne semble pas être si supérieur à la GDDR5, son temps d’accès et le nombre d’accès concurent sont bien meilleurs.
La XBOX One est un peu moins bourrin mais plus rafiné. Microsoft avec DirectX a bien vu l’orientation que les moteurs de jeu ont prit et le design de la console reflète très bien ça. Si l’EDRAM a pu très bien faire ce genre de chose sur Xbox 360, pourquoi pas sur cette console.
ça se discute, le processing sur le buffer en différé n’est pas forcément très long (antialiasing, blooming, lumières avec le z-buffer,..), et en tout les cas peu sensible à la latence (bon traitement gpu de bourrin, bien parallélisé, la latence initiale à l’accès ne pèse pas lourd par rapport au 60fps. Curieux de voir ce qui va en sortir encore une fois, je ne sais pas si MS a fait un truc plus “raffiné” mais certainement moins trivial à bien faire marcher. A côté de ça la PS4 va être bien simple, il faut juste threader et c’est parti, même plus simple que sur les PC actuels avec l’espace mémoire unifié (je parle en connaissance de cause, mon boulot c’est de faire du soft CUDA)
Sinon, 175 mhz de plus sur un Jaguar? je doute que ça pose problème. En 40 mm les bobcat passe très bien à 2 GHz alors je ne verrait pas pourquoi un Jaguar ne passerait pas à 175 MHz. Oui il y a 8 coeur, mais encore la, rien d’extra ordinaire. ça demeure petit comparé à la partie graphique.
bien d’accord, mais ce qui est intéressant ce n’est pas tant la faisabilité (évidemment que c’est faisable de faire un cpu x86 à 1.75GHz en 2013…) que le “pourquoi maintenant” ? à moins que microsoft se soit fait remonter les bretelles par des devs de jeux..
Le
04/09/2013 à
12h
56
Qruby a écrit :
Un extrait du test du dernier i3 d’intel. La remarque de HFR (sérieux site concernant les tests CPU/GPU) sur le gain apporté dans les jeux par rapport à 1MB de plus de cache processeur :
Il ne s’agit que d’un cache CPU ici, et pourtant le gain n’est pas négligeable. Donc un cache mémoire de 32Mo, si bien utilisé, pourrait effectivement compenser (en partie) les différences de bande passante entre la GDDR5 et la DDR3.
tu compares deux truc qui n’ont rien à voir. le cache du i3 dont parle HFR est un L2 ou L3, le cache du xBoxOne c’est de la eDRAM, beaucoup moins bas niveau et beaucoup moins rapide
comme déjà dit sur un commentaire précédent, s’avancer sur les effets est à mon sens un peu aléatoire. Par exemple sur un jeu limité par la gestion des textures, les 32m ne serviront pas à grand chose par rapport à la ram de la PS4.
comme j’en faisais la remarque, ces 32M de ram embarquée sont marginalement plus rapides que la DDR5 de la PS4 (100GB/s duplex contre 176GB/s sur un flux), mais énormément plus petits. Même Intel a mis 128M de cache sur ses processeurs Iris Pro, ça me semble soit petit soit lent. Mais je ne m’avancerait pas pour autant à prévoir le résultat..
ce qui est amusant avec cette génération, c’est que la PS4 va être facile à programmer (spécialement avec l’espace mémoire unifié), alors que la xb1 demandera une adaptation pour améliorer les perfs. Situation inversée par rapport à la xbox360/ps3
Le
04/09/2013 à
10h
14
Charly32 a écrit :
La mémoire cache a une capacité bien trop faible pour compenser une mémoire centrale “lente”.
pas du tout évident. Tu programmes des jeux sur Xbox One pour dire ça ? l’un ne remplace pas l’autre directement, mais si c’est bien exploité par les développeurs le résultat est difficilement prévisible. Pour info c’est aussi la stratégie retenue par Intel sur Iris Pro, pas nécessairement idiot même si ça introduit une différence bas niiveau lors du portage PC -> XB1 (contrairement à la PS3). Ce qui est surtout gênant avec ce cache à mon sens, c’est qu’il n’a finalement pas une bande passante extraordinaire. 100GB/s dans les deux sens avec les 32M de cache, tandis que la PS4 est à 176GB/s dans un sens avec ses 8G de ram… La latence est bien plus faible pour le cache de la XB1, mais la vitesse est étonnament basse..
Le
04/09/2013 à
10h
06
La fréquence doit être assez large avec ces processeurs, c’est juste un curseur lié au dégagement thermique et à la conso.. Un peu étonnant cet ajustement de dernière minute, à moins que ce soit lié à un problème de perfs : Sony et MS n’ont pas la même stratégie quant à la gestion de l’interface pendant le jeu, MS a annoncé que les deux (jeu et interface) tourneront en parallèle sur deux kernels différents, tandis que Sony fait un switch de programme sur le même kernel. En conséquence MS avait annoncé bloquer un CPU pour son interface, et s’est peut être fait taper sur les doigts par les développeurs. Un bon moyen de se rachèter une égalité en termes de puissance disponible par ce biais ? (71.75 ~= 81.6)
La démo en qml est vraiment super impressionnante je trouve, pas super expérimenté dans les GUI mais ça semble hyper facile ! Dire que c’est une des pépites de Nokia vendue pour trois fois rien..
Mwais, bof… quand c’est mal fait c’est mal fait… Toujours marrant de voir des entreprises débarquer avec des formats bâclés qui auraient valu à leurs auteurs d’être recalés s’ils avaient suivi des cours d’info… après, on invoque le pragmatisme, mais le mal est fait, et le résultat est toujours minable.
sinon, Nikkon, ils chiffrent toujours les infos de traitement boîtier comme la balance des blancs dans leurs NEF?
je ne connais pas assez pour dire que c’est bâclé, globalement ils ne font pas que des bêtises non plus chez Nikon. C’est un peu prétentieux de penser que je ferais mieux, du coup je ne le dis pas. Aussi possible qu’ils fassent des trucs logiques mais que je n’aie pas les éléments pour les comprendre, mais encore faut t’il l’envisager..
Il y a une partie de compression de la partie entropique dans le jpg, sans perte, c’est a priori pas idiot du tout de la réutiliser quand tu fais un RAW pour qu’il prenne moins de place, et que le même circuit (qui est câblé en dur pour du jpg) reserve. Les octets en plus, comme je l’ai dit plus haut, c’est ultra classique en traitement d’image, c’est pour aligner les accès mémoire (qu’une ligne de l’image soit un multiple de la largeur de ton bus mémoire). Après si tu prétends que les ingés Nikon ne savent pas ce qu’ils font et que tu fais forcément mieux, envoie leur un CV…
Le
02/07/2013 à
22h
24
raoudoudou a écrit :
Ah si, il est pire sur certains modèles! Foutre les données de l’image dans des blocs JPG, à la suite d’un TIFF, sans l’intégrer dans un tag du TIFF, c’est méga-porc! Après, c’est documenté, ok, mais c’est complètement capillo-tracté d’avoir fait ça!
ah ensuite, les goûts et les couleurs.. ;-) pas mal de choix doivent se justifier quand même, dont les octets supplémentaires dont tu parlais précédemment, c’est du padding pour mieux aligner en mémoire (je ne sais pas pour les blocs jpgs par contre). Je parlais surtout de la situation “extérieure” : le NEF est globalement bien supporté (notamment par l’opensource), et les fichiers sont assez compacts pour ne pas se poser la question par rapport à un jpg
Le
02/07/2013 à
21h
35
CaptainDangeax a écrit :
Sans vouloir couper les cheveux en quatre, raw, ça veut dire données brutes. Donc pas de header contenant les informations sur le format. Et pourtant c’est lisible.
rien à voir, le “brut” en question veut juste dire que les informations captées par le capteur sont présentes sans traitement (théoriquement, Pentax entre autres ne le respecte pas toujours), c’est à dire sans demosaicing, avec la dynamique originale (12 ou 14 bits en général) et sans traitement anti-bruit préalable. RAW ne veut pas dire “en vrac”, ça n’a pas de sens de dire ça. Un fichier informatique n’est pas lisible si on ne connaît pas la structure de l’enregistrement, renseigne toi quand tu ne connais pas. (exemple bête : ligne par ligne, colonne par colonne, pixels pairs puis impairs, tous les rouges puis tous les verts puis tous les bleus ?)
Peut-on dire, d’un point de vue philosophique, qu’un fichier de taille non nulle n’a pas de format ? Et que donc, les données contenues ne sont qu’un ensemble d’octets ou de bits sans signification ?
" />
Pourquoi je râle sur Nikon ? Parce que mon frère qui est très content de son LinuxMint 13 ne pouvait pas ouvrir les photos que son collègue avait fait lors de leur dernière régate, avec un Nikon. Il a fallu redemander après conversion dans un format plus ouvert…
redite, le seul format ouvert et répandu pour les photos RAW que je connaisse vient d’Adobe, c’est DNG. Ensuite le NEF de Nikon n’est pas parfait mais il n’est pas pire que les autres, et très (très) bien supporté sous linux (si Mint ne sait pas le lire, c’est de leur faute, certainement pas de la faute de Nikon. Kubuntu n’a pas de soucis par exemple..)
Enfin, comparer les poids entre le JPG et le format proprio n’a pas de sens, vu qu’en jpeg, on peut régler la compression de complètement pourri à lossless. De plus, un fichier déjà compressé ne peut pas être recompressé (sinon on finirait pas atteindre le bit ultime de la connaissance universelle absolue).
Pour quelqu’un qui prend des photos ça a du sens (mais tu ne dois pas en prendre alors), ou alors pour quelqu’un qui sait de quoi il parle (sans doute pas ton cas non plus). Quand tu prends des photos, tu as le choix du format d’enregistrement. A priori c’est toujours mieux en RAW, puisque tu as toutes les infos (pas le cas en jpg, pas possible de faire du lossless en jpg, tu as le droit de te renseigner sur les pertes quand on passe de 12 bits d’échantillonnage sur du RAW en général à 8 bits sur du jpg..); Le problème du RAW de base, c’est que la photo pèse hyper lourd (3-5x la jpg équivalente, au moins). Le problème qui va avec, c’est que ça ralenti la cadence de l’appareil, puisqu’il doit aussi stocker ça dans son buffer et l’écrire sur la carte. Un début de solution pas con, c’est de comprimer (sans perte, comme un zip) ce RAW, pour qu’il ne prenne pas trop de place. Et non, si tu mets une information en vrac “sans header” comme tu dis, elle n’est pas comprimée. Donc tu vois, ça ne coule pas de source.
Alors non, les RAW Nikon au format NEF qui prennent deux fois la place de la jpg en compression fine (moins de 10Mo pour un 12MP), c’est pas idiot.
Le
02/07/2013 à
11h
29
CaptainDangeax a écrit :
Le Nikon, je ne regarde même pas. Parce que chez Nikon on a sa propre version de compression de l’image, au lieu des formats incontournables RAW et JPEG. Du coup, si t’as pas la bonne version du soft Nikon pour le bon appareil et la bonne version de Ouïdoze, tu peux le vendre sur leboncoin, ton appareil. Très peu pour moi, je reste chez Canon.
grosse blague, le RAW n’est pas un format pour ton information, ce n’est pas standardisé. Chez NIkon c’est du NEF, très bien supporté par plein de softs open-source, sûrement pas parfait mais il a l’avantage d’être compressé sans perte (poids juste 2x les jpg). Canon aussi a son format proprio, il n’y a que Pentax qui joue le jeu des formats ouverts avec le DNG en option.
Non, sérieusement : d’où vient cette allergie à l’ouverture de fenêtres ?
ça ralenti la sélection de fenêtres dans exposé/alt-tab
ça encombre inutilement la barre de tâches ou le dock
quel point positif ?
Et bien je vais te citer le cas auquel tu n’as apparemment pas pensé, alors qu’il est à mon avis bien plus fréquent que 10 % des cas d’utilisation : le glisser-déposer d’un dossier à un autre. + blabla
Le truc qui fait que les onglets ne m’intéressent pas dans le Finder (alors que dans un navigateur web j’en use et abuse), c’est ça.
tu as le droit de lire les messages auxquels tu tentes de répondre. Je disais justement que ce cas là n’est pas géré par les onglets, mais par la possibilité de voir deux dossiers en même temps dans une seule fenêtre, ce que Dolphin fait très bien (et pas Finder apparemment, et pas MS Explorer).
J’ai écrit quelque chose de bien plus précis, au sens très différent : j’ai écrit que les gens fans du concept des onglets dans le Finder le sont (à mon avis — ça, je ne l’ai pas écrit, mais c’est évident) parce qu’ils ne savent pas gérer correctement le fait d’avoir plusieurs fenêtres ouvertes. D’où un inconfort de leur part face à une telle situation. D’où un fort intérêt de leur part pour un système qui permet d’éviter d’arriver à une telle situation.
“ceux qui ne pensent pas comme moi ont tort”, j’adore
Et tu affirmation comme quoi « une bonne gestion des fenêtres ça commence déjà par éviter d’en ouvrir pour rien » ne fait que me conforter dans cet avis.
quel intérêt à ouvrir deux fenêtre quand tu fais la même chose dans une seule fenêtre ?
Le
13/06/2013 à
14h
04
Glouk a écrit :
Enfin, « bienvenu »… bof, bof… Seulement pour quelques transfuges geeks ne sachant pas gérer leurs fenêtres, parce que pour les autres…
M’enfin, comme ça a déjà été dit : tant qu’on n’est pas obligé de les utiliser, les onglets, on ne va pas râler. Si ça peut faire plaisir à quelques uns et nous éviter de voir cette demande répétée sans cesse sur les forums… :-)
Ouvrir plusieurs explorateurs de fichiers, une fois qu’il y a des onglets, c’est juste inutile dans 90% des cas. Une bonne gestion des fenêtres ça commence déjà par éviter d’en ouvrir pour rien. Un cas utile dans les 10% restants serait de pouvoir comparer visuellement le contenu de deux dossiers simultanément, mais ça c’est aussi présent depuis longtemps dans Dolphin sans avoir besoin d’en ouvrir deux, et ultra pratique…
J’adore le ton condescendant sinon, parce qu’évidemment tu sais ce qui est bon ou non, et les autres ne sont que des “ne sachant pas”. " />
Le
13/06/2013 à
10h
32
Glouk a écrit :
Oui, exactement comme dans Exposé depuis Panther (10 ans déjà), dont ce mode a repris fidèlement le comportement.
Du coup, évoquer ça pour parler de réchauffé chez Apple, c’est rigolo. :-)
l’article de Vincent en parle comme étant une nouveauté, mais je n’ai pas de Mac, donc je ne pouvais pas savoir que ça fonctionnait déjà comme ça. Du coup je ne comprends pas très bien la nouveauté apportée par 10.9 ? Les modes plein écran dissociés ne semblent pas vraiment nouveaux non plus, en tout cas pas sous KDE, je ne suis pas sûr de bien comprendre l’apport de 10.9 (mis à part la barre qui est dupliquée ?). Pour les onglets dans le Finder pas de débat, c’est bien du photocopié (bienvenu, certes), l’absence d’évolution de ce point de vue sous windows est un peu dommage (explorer n’a presque pas changé depuis win 98..)
Le
13/06/2013 à
08h
28
DorianMonnier a écrit :
J’ai utilisé pendant quelques temps KDE sur un dual-screen, et j’ai toujours eu le problème que deux écrans n’étaient justement pas indépendant :
L’exposé s’activer sur tous les écrans (quand t’as un film sur le second en plein écran, c’est chiant )
Les bureaux sont synchronisées, si tu changes de bureau sur l’écran 1, l’écran 2 suit, là encore, c’est pas franchement pratique.
La seule parade “valable” que j’avais, c’était de mettre des fenêtres en mode “afficher sur tous les bureaux” sur l’écran secondaire pour les avoir toujours visible, même quand je changeais de bureau sur l’écran 1.
justement, pour MacOS le comportement est d’après l’article le même que KDE, “mission control” se lance en simultané. Mis à part le cas du film (mais je fais rarement autre chose pendant un film), j’ai du mal à voir le problème..
Sinon je suis un peu scotché par le système des mots de passe appris par MacOS/iOS dans un contexte concurrentiel : un bon piège pour retenir tout le monde, la galère des identifications étant promise à ceux qui switchent de système..
Le
12/06/2013 à
21h
46
zogG a écrit :
Tu peux associer un bureau virtuel à chaque écran physique et qu’ils soient totalement indépendant sur combien d’OS?
E cherchant vite fait sur google je tombe que sur des gars qui voudraient le faire mais qui ne peuvent pas, y’a même un bug ouvert sur le KDE concernant cette feature.
(c’est une vrai question)
le plein écran sur chaque écran, ou le “mission control” sur chacun d’entre eux automatiquement, c’est depuis longtemps sur KDE. Idem quand tu passes en vue générale de tous les bureaux virtuels, ceux-ci prennent en compte automatiquement les deux écrans et un mode “exposé” indépendant est affiché sur chacun d’entre eux (par exemple).
Les barres ne se dupliquent pas automatiquement par contre, et je ne suis pas trop sûr de ce que tu demandes avec un “bureau virtuel indépendant”. C’est sûrement pas équivalent avec ce que propose Apple, je ne débattrai pas là dessus, mais il y a quand même beaucoup de réchauffé dans leurs annonces..
Le
12/06/2013 à
15h
43
Onglets dans le Finder et gestionnaire de mots de passe <3 Dans KDE depuis des lustres " />
Les Razer Blade… S’te blague… Des prix très haut de gammes pour des perfs moyennes… ^^
Et oui, les machines sont belles, fines, et tout… Mais y a de formule magique, tu peux pas avoir l’un et l’autre en même…
C’est pour ça que les portables de gamers sont tous des transportable.
il y a un marché pour des machines plus puissantes que des ultrabooks et plus transportables que les grosses machines de gamers, c’est exactement ce que sont les MBP. Je cherche un truc comme ça depuis quelques mois, dur à trouver côté PC, et les Razer Blade sont pas mal à ce niveau (mis à part leur dalle TN). Il n’y a pas que la puissance dans la vie, sinon je prendrais une tour et une batterie de voiture…
Le
11/06/2013 à
11h
46
Dommage par rapport aux Razer Blade, il manque une gamme peut être un peu moins puissante mais beaucoup plus transportable (genre MBP). C’est quand même fou qu’un constructeur comme Dell/Alienware ne soit pas fichu de gérer ce qu’une petite boîte comme Razer arrive à faire..
Toujours en recherche d’un 14”/petit 15” puissant et durable autre que le MBP pour ma part..
Vu qu’Half-life fonctionne sous opengl, le portage sous linux n’a pas l’air si compliqué que ça au final.
justement, je crois que source n’était pas sous opengl, c’était tout le problème.. Wikipediales versions postérieures sont opengl, mais c’était du boulot pour faire ça
Le
10/05/2013 à
09h
42
ldesnogu a écrit :
Je pense que ce sont les dev de GW2 qui se sont foutus de la g. des gens. A regarder le code source de Doom 3, bien sur qu’il y a des specificites pour OS X, mais rien d’enorme ou complique.
ça dépend vraiment du moteur utilisé, enfin surtout de s’il est basé sur opengl et dx. Pas si compliqué que ça à mon sens si le moteur est opengl, pas contre horriblement long si le moteur est directX, puisqu’il faut a priori tout réécrire. C’est là que Valve a été malin : ils traduisent tous les appels direct en openGl, mais après la compilation de leur moteur, ils n’ont rien réécrit apparemment. Le point positif, c’est que je crois qu’ils proposent leur soft aux autres développeurs, mais peut être contre $$. Dernier point : plutôt bien pour le futur à mon sens, OpenGL prend vraiment la main grâce au jeu mobile (exclusivement OpenGL sauf WindowsPhone), du coup j’ai bon espoir pour les moteurs des jeux à venir qui seraient basés là dessus.
Le
10/05/2013 à
09h
38
Woooo, trop content " /> HL2 en téléchargement, c’est parti.. La bibliothèque de jeux Steam sous linux se rempli lentement mais sûrement, pas représentatif mais j’ai maintenant 45 de mes 87 jeux steam qui sont cross-platform, ça fait plaisir de ne pas avoir à rebooter.
MS n’avait pas d’OS sur tablette avant, il en a un maintenant, c’est donc en effet ses premiers mois.
C’était pareil à l’époque des premières tablettes Android. Un nouvel OS, même si une version précédente existait déjà pour téléphone.
Ensuite ce sera le premier OS sur une tablette 7 pouces, ou sur une tablette avec les bords bleus ? Comme tu veux, en fait je m’en fiche un peu, chacun ses critères et la discussion tourne un peu en rond dans les commentaires. AMHA ce n’est pas une franche réussite pour Microsoft, parce la décision d’y aller en tant que constructeur ne peux fonctionner pour eux que s’ils font un carton. Les autres constructeurs de tablettes sous WinRT ont dit plusieurs fois qu’ils ne pourraient pas rivaliser avec MS sur ce terrain, puisque la Surface n’a pas de licence à payer, donc c’est comme au poker : si tu fais OS et Hardware, il faut cartonner tout seul, c’est tout.
De mon point de vue c’est raté, puisqu’on était au pic de forme de WinRT (tablette toute neuve et offres de Samsung et Acer notamment), et qu’a priori les autres constructeurs ne sortiront pas de nouveaux modèles, mais chacun son point de vue… Le pseudo débat sur la nouveauté n’a pas trop de sens pour moi, Windows n’a pas besoin d’être présenté, c’est l’OS historique et évident pour la plupart des gens. Ensuite chacun peut se raccrocher aux branches s’il veut.
Le
03/05/2013 à
08h
19
Tolor a écrit :
Pas quand c’est les premiers mois de vie de l’OS
c’est une blague cet argument, l’OS prend la suite de WP sur l’embarqué, la nouveauté n’a rien à voir.
Mise en situation :
Belle perf pour Android, pour les premiers mois de l’OS Jelly Bean " />
C’est pas parce que microsoft multiplie les sorties d’OS qu’il faut leur accorder le bénéfice de la nouveauté à tout bout de champ..
Le
03/05/2013 à
07h
14
FFManiac a écrit :
Arriver à caser 1.8 millions de tablettes en 3 mois pour un système vieux de 6 c’est pas si mal, tu ne crois pas ?
les chiffres sont sur 3 mois pour tout le monde, pas seulement pour microsoft.. ^^ Pas vraiment une performance à mon sens, à 3-4% du marché ce n’est pas ce qu’on pourrait appeler un raz de marée
il s’agissait des meilleurs mois pour MS, puisque la surface était encore récente, et que la sortie de win8 rendait le système plus connu. S’il n’y a pas de nouveau modèle bientôt ça ne va que baisser, il n’y a plus l’attrait de la nouveauté (et le tegra3 est bien en deçà des derniers modèles, surtout que winRT ne gère même pas le companion core)
Donc non, je ne crois pas que ce soit “pas si mal”. Les 3⁄4 des autres fabricants de tablettes RT ont annulé leurs modèles faute de demande (Samsung, Acer), pas franchement de quoi se réjouir.
Au passage, ne rencontres tu pas des soucis d’autonomie ? sur mon sensation elle est divisée par 2
Pas de soucis avec la Rom d’albinoman, ensuite ça dépend beaucoup du gouverneur utilisé. En règle générale badass est vraiment très bon pour la batterie, ondemand peut être plus court. Une journée et demie avec synchronisation et wifi tout le temps (hors nuit) (batterie Anker), ça me va bien :-)
Le
15/04/2013 à
11h
32
Pas mal d’autres terminaux pas officiels, mais qui fonctionnent très bien. HTC Sensation sous CM10.1 de mon côté, nickel
Non, ce qu’ils ont dit c’est que vue l’architecture de XOrg il était impossible d’envisager d’intégrer ne serait-ce qu’un support partiel sous linux, les deux étant incompatibles.
Leurs propres dires, c’était bien d’avancer une impossibilité technique sans modifier en profondeur XOrg, pas autre chose.
Bumblebee a quand même montré que c’était possible.. un peu pédestre, mais ça fonctionne quand même très bien !
Bref. contrairement à ma dernière machine où j’avais naïvement crû qu’une machine sous optimus était convenable (puisque je pourrais désactiver le GPU NVidia pour ne garder que l’Intel), mes prochaines machines, c’est de l’IGP Intel only.
Hmm, un peu d’accord, mais j’attends de voir ce que donne nvidia/optimus et Haswell avant de me décider " />
Le
10/04/2013 à
16h
49
RaYz a écrit :
Ben apparemment ils utilisent une liste d’appli qui doivent démarrer sur la carte, je vois toujours pas ce qu’il y’a d’extraordinaire.
dans le détail c’est quand même pas nécessairement évident, puisque ton écran reste branché sur la même prise.. Du coup il faut que ta puce nvidia aille écrire le résultat (l’image calculée) dans le buffer de la carte intel (que tu ne peux pas complètement éteindre du coup il me semble). C’est quand même de la mécanique, d’autant plus que tu ne veux idéalement pas voir le switch à l’écran quand la carte se réveille.. (le clignotement qui se faisait avec les anciennes solutions, quand tu switch entre le buffer de l’iGP et celui du GPU)
Ils suivent les évolutions techniques, et c’était évident qu’ils allaient le faire, mais dire qu’ils sont en retard, c’est une question de point de vue.
il existe une définition du retard dans le dictionnaire, et ça y correspond. Microsoft a toujours eu un retard dans l’exécution assez incroyable avec WP, ça commençait avec les dual core. Idem avec WinRT, et le companion core des Tegra qui n’est pas géré (quand bien même il s’agirait de la plate forme officielle). Pas possible de tourner ça autrement, c’est un fait, et c’est négatif. Si tu ne veux pas de FulllHD tu achètes autre chose, mais c’est toujours mieux d’avoir le choix.
C’était le site de google que j’utilisais le plus souvent, après gmail.. Bon, décision un peu bizarre je trouve, ça ne devait pas leur coûter bien cher vu le peu d’évolutions et ça devait leur apprendre beaucoup sur la qualité et les liens entre les sites. Pas mal énervé ce matin en lisant ça..
Pas mal du tout, une machine pour grand-parents… Bien content de voir ce genre de trucs, peut être un achat dans pas longtemps si ça sort en France. JE ne comprends pas trop la critique sur la résolution, c’est un 20” (donc 1600*900 ce n’est pas dégoûtant) à 400€.. (à peine plus qu’un netbook). Le proc aurait sans doute pu être plus puissant, mais bon, Ubuntu est quand même léger.
239 commentaires
Avec Android 4.4.2, Google fait disparaître les permissions des applications
16/12/2013
Le 16/12/2013 à 11h 12
Le 16/12/2013 à 09h 25
beaucoup mieux, la gestion des autorisations sous cyanogenmod permet de faire tout ca, sans que les applications ne plantent : de fausses infos sont juste envoyées si besoin " /> Encore une bonne raison de switcher " />
NVIDIA Prime : Optimus sous Ubuntu 14.04 via une interface graphique
12/12/2013
Le 12/12/2013 à 21h 18
Le 12/12/2013 à 13h 42
Le 12/12/2013 à 10h 11
un peu hors topic là, non ? On parlait de Optimus supporté officiellement par nVidia sous linux " />
Le 12/12/2013 à 08h 49
doctormadness +1, c’est même super efficace avec Primusrun qui a pris la suite de bumblebee.
Pas complètement fiable par contre, j’ai quelques softs/jeux sur lesquels ca ne passe pas de manière complètement automatique (OpenCL ou jeux lancés via steam, quand steam est sous primusrun c’est automatique une fois sur deux)
Le Dell XPS 13 Developer Edition passe à Haswell, à partir de 1299 euros
18/11/2013
Le 18/11/2013 à 11h 52
Dommage pour eux, j’avais hésité mais ils ont été super longs à passer à Haswell (et c’est quand même cher, malgré la finition au top apparemment). Passé sur un Clevo 230st pour ma part, moins cher et beaucoup plus puissant, aussi sous Linux, mais moins de batterie.
AMD vante les résultats de sa Radeon R9 290X face à la GeForce GTX 780
18/10/2013
Le 18/10/2013 à 07h 53
Je comprends un peu la frustration de David, c’est assez lamentable ces infos au compte goutte, et pas très journalistique de diffuser des résultats aussi contrôlés. Bon, je suis quand même allé voir sur Anandtech, mais c’est un peu creux..
Microsoft observe les Steam Machines « avec grand intérêt »
27/09/2013
Le 27/09/2013 à 12h 38
Le 27/09/2013 à 12h 37
AMD dévoile ses Radeon R7 / R9, et déçoit
25/09/2013
Le 26/09/2013 à 10h 10
Le 26/09/2013 à 09h 23
Le 25/09/2013 à 23h 01
Je ne comprends pas très bien la déception :
à part le renommage d’une partie des cartes, je ne comprends pas très bien ce qui ne vous plaît pas " />
3DMark : les iPhone 5c et 5 s face aux autres terminaux Apple et… Android
20/09/2013
Le 20/09/2013 à 16h 21
Le CPU de la Xbox One passe à 1,75 GHz : la stratégie du doigt mouillé
04/09/2013
Le 04/09/2013 à 14h 35
Le 04/09/2013 à 12h 56
Le 04/09/2013 à 10h 14
Le 04/09/2013 à 10h 06
La fréquence doit être assez large avec ces processeurs, c’est juste un curseur lié au dégagement thermique et à la conso.. Un peu étonnant cet ajustement de dernière minute, à moins que ce soit lié à un problème de perfs : Sony et MS n’ont pas la même stratégie quant à la gestion de l’interface pendant le jeu, MS a annoncé que les deux (jeu et interface) tourneront en parallèle sur deux kernels différents, tandis que Sony fait un switch de programme sur le même kernel. En conséquence MS avait annoncé bloquer un CPU pour son interface, et s’est peut être fait taper sur les doigts par les développeurs. Un bon moyen de se rachèter une égalité en termes de puissance disponible par ce biais ? (71.75 ~= 81.6)
CyangenMod 10.2 : les premières « Nightlies » à base d’Android 4.3 sont là
14/08/2013
Le 14/08/2013 à 07h 46
yeah, dispo pour LG Optimus 4X HD :)
Qt 5.1 introduit le support préliminaire d’iOS et Android
05/07/2013
Le 05/07/2013 à 11h 18
La démo en qml est vraiment super impressionnante je trouve, pas super expérimenté dans les GUI mais ça semble hyper facile ! Dire que c’est une des pépites de Nokia vendue pour trois fois rien..
Canon EOS 70D : un reflex de 20 Mpixels avec un autofocus dédié à la vidéo
02/07/2013
Le 03/07/2013 à 12h 55
Le 02/07/2013 à 22h 24
Le 02/07/2013 à 21h 35
Le 02/07/2013 à 11h 29
Curiosity : des panoramiques de 1,3 milliard de pixels de la surface de Mars
21/06/2013
Le 21/06/2013 à 09h 17
silverlight de m.rde, parfait. Merci la NASA " />
Bing suggère que la Xbox One est « puissante », Google « moche »
19/06/2013
Le 19/06/2013 à 15h 07
sur la version anglaise de google :
xbox one is :
" />
Raspberry Pi : grosse mise à jour pour Raspbmc, une surprise pour juillet
18/06/2013
Le 19/06/2013 à 08h 56
Le 18/06/2013 à 13h 59
pas d’update de la prise en charge de AirPlay " />
[Dossier PCi] OS X Mavericks : le tour en images des principales nouveautés
12/06/2013
Le 13/06/2013 à 14h 57
Le 13/06/2013 à 14h 04
Le 13/06/2013 à 10h 32
Le 13/06/2013 à 08h 28
Le 12/06/2013 à 21h 46
Le 12/06/2013 à 15h 43
Onglets dans le Finder et gestionnaire de mots de passe <3 Dans KDE depuis des lustres " />
Alienware : SLI de GeForce GTX 780M et Core i7 overclocké à 4,3 GHz
11/06/2013
Le 12/06/2013 à 07h 30
Le 11/06/2013 à 11h 46
Dommage par rapport aux Razer Blade, il manque une gamme peut être un peu moins puissante mais beaucoup plus transportable (genre MBP). C’est quand même fou qu’un constructeur comme Dell/Alienware ne soit pas fichu de gérer ce qu’une petite boîte comme Razer arrive à faire..
Toujours en recherche d’un 14”/petit 15” puissant et durable autre que le MBP pour ma part..
Half-Life 2 et ses dérivés disponibles sous Steam pour Linux
10/05/2013
Le 10/05/2013 à 10h 03
Le 10/05/2013 à 09h 42
Le 10/05/2013 à 09h 38
Woooo, trop content " /> HL2 en téléchargement, c’est parti.. La bibliothèque de jeux Steam sous linux se rempli lentement mais sûrement, pas représentatif mais j’ai maintenant 45 de mes 87 jeux steam qui sont cross-platform, ça fait plaisir de ne pas avoir à rebooter.
Tablettes : ASUS sur le podium, Microsoft déjà le cinquième constructeur
03/05/2013
Le 03/05/2013 à 09h 04
Le 03/05/2013 à 08h 19
Le 03/05/2013 à 07h 14
CyanogenMod 10.1 M3 : Android 4.2.2 arrive sur de nouveaux terminaux
15/04/2013
Le 15/04/2013 à 13h 29
Le 15/04/2013 à 11h 32
Pas mal d’autres terminaux pas officiels, mais qui fonctionnent très bien. HTC Sensation sous CM10.1 de mon côté, nickel
NVIDIA apporte le support préliminaire d’Optimus sous Linux
10/04/2013
Le 10/04/2013 à 16h 51
Le 10/04/2013 à 16h 49
Windows Phone 8 devrait gérer les écrans Full HD d’ici la fin de l’année
09/04/2013
Le 10/04/2013 à 08h 04
Google Reader fermera ses portes le 1er juillet, quelles conséquences ?
14/03/2013
Le 14/03/2013 à 08h 53
C’était le site de google que j’utilisais le plus souvent, après gmail.. Bon, décision un peu bizarre je trouve, ça ne devait pas leur coûter bien cher vu le peu d’évolutions et ça devait leur apprendre beaucoup sur la qualité et les liens entre les sites. Pas mal énervé ce matin en lisant ça..
HP lance un PC tout-en-un sous Ubuntu pour 349 £
06/03/2013
Le 06/03/2013 à 10h 38
Pas mal du tout, une machine pour grand-parents… Bien content de voir ce genre de trucs, peut être un achat dans pas longtemps si ça sort en France. JE ne comprends pas trop la critique sur la résolution, c’est un 20” (donc 1600*900 ce n’est pas dégoûtant) à 400€.. (à peine plus qu’un netbook). Le proc aurait sans doute pu être plus puissant, mais bon, Ubuntu est quand même léger.
XP13 Developper Edition : l’Ultrabook Ubuntu de Dell est à 999 € HT en France
05/03/2013
Le 05/03/2013 à 12h 09