votre avatar

Max81

est avec nous depuis le 23 juin 2005 ❤️

238 commentaires

Le 04/11/2014 à 17h 31







the true mask a écrit :



En effet c’est ce détail que j’avais pas saisis. …Mais bon d’ici à ce qu’elle soit exploitée…ça reste quand même pas super inquiétant comme faille pour la grande majorité des utilisateurs, d’autant plus si elle n’est pas exploitable à distance.





Le problème c’est si elle est combinée à une autre faille dans safari par exemple. Régulièrement il y a une faille qui permet l’exécution de code arbitraire. Bah ce code pourra en plus passer root pour s’installer dans le système.



C’est clair que c’est pas ultra mega critique, mais ça peut être un problème dans les endroits sensibles.


Le 04/11/2014 à 17h 24







the true mask a écrit :



Demandes déjà aux hackeurs le temps fou qu’ils mettent à trouver certaines failles..alors qu’il est souvent nettement moins complexe de trouver des failles , que d’en apporter une correction complète.





Mouahahahhaa. C’est n’importe quoi. Va trouver une faille dans un logiciel, bon courage.


Le 25/10/2014 à 11h 17







ethanfel a écrit :



Bref, on tourne en rond, visiblement Debien c’est userfriendly, le succès d’ubuntu est arrivé par hasard.



  







Ne me fait pas dire ce que je n’ai pas dit. Il y a 10 ans lorsqu’Ubuntu est arrivé, il a apporté des améliorations et il était plus user-friendly que Debian. En plus, les versions stables de Debian étaient trop espacées et donc beaucoup ont été attirés par le cycle de release de 6 mois. Le succès d’Ubuntu n’est pas arrivé par hasard ! J’ai moi-même switché sur Ubuntu en 2006 après pas mal de temps sur Debian (et avant slackware, fedora et mandrake).



Sauf que depuis, Debian a amélioré son installeur (arrivée de la version graphique) et les logiciels sont les même sur Ubuntu. La dernière release stable date de l’année dernière et Jessie passe en phase de freeze dans 10 jours. La contribution actuelle d’Ubuntu c’est Unity. Donc si on utilise pas Unity, je ne vois pas l’intérêt d’Ubuntu face à l’originale.


Le 25/10/2014 à 08h 46

Tu trouves vraiment l’installation de Debian complexe ?

Le 25/10/2014 à 06h 14







ethanfel a écrit :



Juste que cela semble bizarre de voir que tu confis tes donnés de boulot a une version d’OS instable, c’est assez inconscient.



&nbsp;Pour la facilité, compare simplement l’installation graphique.&nbsp;<img data-src=" />&nbsp;Je suis pas un adorateur d’ubuntu, mais ç’est c’est assez evident.









Debian Testing n’est pas instable (j’ai peut être dit Sid à un moment c’était une erreur, je parlais de testing). J’ai moins de mauvaises surprises que sur Ubuntu que j’ai quitté lors du bug de trop.



Il ne faut pas confondre avec Debian Unstable ou Debian Experimental pour lesquelles c’est effectivement l’aventure avec des risques de tout casser régulièrement lors du maj. Debian Testing n’a pas vocation à accepter toutes les versions RC des logiciels, mais seulement les versions stables pour créer la prochaine Debian Stable. C’est pas comme si j’avais un kernel en béta, j’ai des logiciels plus récents pour lesquels un certain nombre de bugs ont été corrigés.



Debian Testing c’est aussi stable qu’une distro en rolling release. D’ailleurs le fonctionnement n’est pas si différent. Bon par contre faut éviter d’utiliser Testing avec des drivers proprio car si on met à jour le kernel et qu’il est trop récent pour le driver proprio, bah là on risque de casser son affichage. Je n’ai plus ce problème.





Et pour l’installation graphique, c’est vrai que celle d’Ubuntu est un poil plus guidée. Mais c’est pas franchement plus compliqué côté Debian si on utilise l’installation graphique (et non la texte). Et heu, ça se fait qu’une seule fois ça normalement.


Le 24/10/2014 à 16h 47







ethanfel a écrit :



Plus vieux qu’Ubuntu 14.10&nbsp;<img data-src=" />Tu m’explique que sur ton environnement de travail t’a choisit Debian SID&nbsp;<img data-src=" />

et a la maison t’es sur wheezy ? Je comprend pourquoi tu capte pas en quoi Ubuntu est plus user friendly. Tu fais a la base tout a l’envers..



bref.





Parce que mon laptop du boulot a du matos récent et qu’avoir les tous derniers drivers disponibles améliore les perfs (et supprime certains bugs). Alors que pour mon laptop perso je n’ai pas ce besoin et donc je peux rester sur du wheezy qui juste marche.



Je cherche encore ce qui est plus facile sur une Ubuntu. Tu n’as pas d’exemples sous la main ? Pour moi une Debian et une Ubuntu c’est la même difficulté d’utilisation hors unity. Vu que tu dis qu’une Debian est plus complexe à utiliser, dis moi en quoi.


Le 24/10/2014 à 10h 32







slave1802 a écrit :



Autant pour moi (au temps pour les autres) je pensai à vi effectivement.



D’ailleurs si quelqu’un pouvait me donner une astuce pour forcer aptget upgrade a utilisé nano…





Bah pourquoi tu changes pas ta variable EDITOR ? Ça marche pas ?


Le 24/10/2014 à 10h 25







ethanfel a écrit :



Tu sais, j’ai 5 PC, 1 sous windows, 1 ubuntu (serveur en 12.04) 1 Ubuntu desktop et 2 Debian. C’est assez evident a l’usage qu’Ubuntu est beaucoup plus user-friendly et ses paquets sont plus a jours.



J’ai du mal a voir pourquoi tu a fait changetr ta copine, si c’est les meme comme tu dit, mise a par qu’ils sont plus daté..







&nbsp;Tu exagères un peu en disant qu’ils sont plus datés. Au boulot je suis sur Debian Sid qui contrairement à ce que tu peux penser est très stable et ne casse pas à chaque mise à jour. À la maison je suis sur Debian Stable avec des backports et les logiciels ne sont pas plus vieux que la dernière Ubuntu LTS.



Dans son cas, c’est surtout parce qu’elle a des bugs avec Ubuntu + Gnome et que ces bugs n’existent pas sur Debian stable.



C’est peut être « évident » pour toi que Ubuntu est plus simple d’usage, mais vraiment, je ne vois pas en quoi. Sauf si on compare Unity à Gnome par exemple, là c’est discutable, mais je parle à l’origine d’un usage de XFCE.


Le 24/10/2014 à 10h 19







gokudomatic a écrit :



Steam est aussi officiellement dans les repos debian? Je croyais que seul ubuntu était officiellement supporté par Valve.





Je n’ai aucun problème pour utiliser Steam sur Debian. Je l’ai utilisé pour faire du CS notamment.



&nbsp;% aptitude search steam

v&nbsp;&nbsp; steam&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; -&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;

p&nbsp;&nbsp; steam:i386&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; - Valve’s Steam digital software delivery system


Le 24/10/2014 à 06h 32







ethanfel a écrit :



Ouais toi tu vois pas, le reste de la communauté le voit ne t’inquiete pas..



C’est meme la principale contribution d’Ubuntu (si ce n’est l’unique ?) a l’univers GNU/linux.







Alors il y a quelques années oui. J’étais sur Debian sarge lorsque j’ai décidé de migrer sur Ubuntu, mais Debian a fait des progrès depuis ! Et quant à la communauté des utilisateurs d’ubuntu… La majorité n’a jamais utilisé Debian et ils ne font que dire qu’ubuntu c’est plus facile. Si ça se trouve tu fais partie de cette catégorie.



Ma copine aussi est une utilisatrice d’ubuntu et elle refusait de passer à debian parce qu’elle ne voulait pas me croire que c’est pareil. Elle croyait que les menus de configuration c’était des trucs d’ubuntu par exemple. Je lui ai donc créé un compte sur mon laptop et ça fait maintenant 2 mois qu’elle l’utilise et se rend compte que les logiciels sont les mêmes.


Le 23/10/2014 à 20h 18







gokudomatic a écrit :



Moi, j’adore latex. J’aime pas faire de la mise en page, donc j’en fais pas. Par contre, sans le moindre outil externe, je fais des diagrammes et des figures magnifiques, dans un document par défaut très joli. Franchement, latex est le sacré saint graal des documents.







Bof, LaTeX est vraiment pénible à utiliser, le jour où je trouve un outil capable de produire des documents d’aussi bonne qualité et avec assez de bibliothèques, je le quitte. En attendant de trouver mieux, je fais avec…



&nbsp;En un sens, LaTeX c’est un peu comme Java. Un truc moyen mais super utilisé parce qu’il y a une grosse base d’outils et de libs faits pour. Et que les gens ont pas envie de se faire chier à passer à autre chose.


Le 23/10/2014 à 20h 13







Konrad a écrit :



Alors là je ne suis pas d’accord, vi est beaucoup mieux qu’emacs ! <img data-src=" />









jb07 a écrit :



Oh mon Dieu, une déclaration de GUERRE ! <img data-src=" />



Emacs c’est vachement mieux <img data-src=" />, même quand on n’utilise que 5% de ses fonctions (le maximum qu’un être humain normal puisse maîtriser en fait <img data-src=" />).







Non non non, à moins d’avoir 6 doigts par main, vim est bien mieux qu’Emacs.


Le 23/10/2014 à 20h 09







ethanfel a écrit :



Enfin ubuntu etait deja tres populaire avant qu’il passe a unity (qui a reduit sa popularité d’ailleur).

Ubuntu est nettement plus user-friendly que debian, rien que l’installation, Ubuntu informe beaucoup mieux.



De plus, le support communautaire d’ubuntu est plus important et y’a de nombreux paquets non libres, plus facilement installable que sur Debian.







Je ne vois pas en quoi Ubuntu est « nettement plus user-friendly » que Debian. J’ai utilisé Ubuntu pendant des années avant de repasser sur une Debian et je n’ai rien eu à changer de mes habitudes et ma distro était plus soignée, avec moins de bugs.



Tu as des exemples de paquets non libres plus faciles à installer sur Debian ? Lorsque je vois des paquets non-libres pour Ubuntu, ça s’installe pareil sur ma Debian.


Le 23/10/2014 à 16h 33

Peut-être que quelqu’un pourrait m’éclairer :



Quel est l’intérêt de Xubuntu face à une Debian ? Encore Ubuntu je comprends qu’on puisse aimer Unity et dans ce cas, il n’y a pas beaucoup de distributions qui permettent de l’utiliser…&nbsp; Mais si ce n’est même pas pour utiliser Unity, pourquoi ne pas revenir sur l’originale ?

Le 07/10/2014 à 19h 32







arno53 a écrit :



Quand tu scrolles un peu sur la news il y’a une barre fix en haut de l’écran et c’est la dernière icone





Merci !


Le 07/10/2014 à 16h 00

Il est où le bouton pour rapporter les fautes sur le nouveau site ?



« Voici d’autres nouveautés apportés par ce noyau » =&gt; apportées.

Le 07/10/2014 à 16h 03

Où est-ce qu’on signale les problèmes ? Genre sur un écran en 1024 de large (je suis en portrait je vous rassure), la barre de scroll en bas fait n’importe quoi lorsque je poste un commentaire ou si je change de page dans les commentaires.

Le 03/10/2014 à 15h 37

C’est devenu n’importe quoi, qu’on intègre cet impôt aux autres (IR notamment) et puis voilà. De tout façon; vu les conditions, tout le monde devra le payer ou presque… Ce n’est plus comme au début où avoir une TV était un luxe.

Le 03/10/2014 à 15h 32

Sous Linux on a bien une version 64 bits non ? Du coup je comprends pas tout là.

Le 30/09/2014 à 17h 43

Une nouvelle occasion de passer à Linux <img data-src=" />.

Le 26/09/2014 à 19h 47

Notons aussi que Gnome 3.14 vient avec une nouvelle version de Gtk qui intègre Adwaita en thème par défaut. C’est une grosse évolution pour ceux qui utilisent les applis gnome en dehors de gnome et qui devaient subir le thème par défaut immonde. Maintenant c’est tout joli :).

Le 26/09/2014 à 10h 58







W0lf a écrit :



Tu peux nous en dire plus sur le terme ?

Si j’ai capté, c’est une interface permettant d’avoir une gestion des fenêtres plus poussé ? D’avoir toutes les fenêtres apparentes ?







Le tiling, ou le pavage, c’est une approche différente du mode fenêtré classique où tu es habitué à pouvoir bouger les fenêtres, les mettre en plein écran, etc. Tout cela majoritairement à la souris.



Avec un tiling window manager, l’idée c’est de ne plus avoir à se soucier trop du placement des fenêtres. Exemple : j’ouvre mon navigateur, c’est la seule appli, alors elle utilise tout l’espace disponible. Là j’ouvre un terminal et paf ça me redimensionne les fenêtres pour que je puisse voir les 2. J’en ouvre un autre, ça me split l’un des 2 espaces à nouveau, etc. Si cela me convient, je n’ai donc pas à redimensionner les fenêtres à la main pour essayer d’optimiser mon espace. Mais je peux toujours intervenir sur la taille des espaces.



Donc le premier point à retenir c’est que la taille et le positionnement des fenêtres est plus intelligent et qu’il est configurable.



Selon ton WM et ta configuration, tu peux modifier le comportement à l’ouverture des fenêtres. Par exemple sur cet ecran, j’ai un premier split sur l’horizontale puis ça se fait à la verticale en me gardant un écran principal. Mais je peux modifier le nombre de colonnes, etc. Je peux aussi passer dans un mode où le split se fait dans l’autre sens, ou avoir un mode flottant où je peux contrôler à la souris de manière classique. Tout cela par bureau, en fonction de mon usage.



Enfin, certains WM sont largement utilisables au clavier. Plus besoin d’utiliser la souris pour beaucoup de choses. C’est donc très appréciés par les utilisateurs de terminaux.



Ce que j’aime le plus c’est ne plus avoir à rechercher mes fenêtres qui se sont retrouvées masquées par des fenêtres qui sont passées dessus. Ici, soit elle est minimisée (invisible), soit elle est sur l’un de mes bureaux au premier plan.

J’ouvre une appli, tout le texte des autres applis restent visible et quand je ferme les fenêtres reprennent à nouveau tout l’espace disponible.



Au début c’est vraiment particulier, mais c’est vraiment plaisant. Surtout sur un ordi portable où mine de rien, l’utilisation du touchpad est assez pénible comparé à une souris. Et si on peut ne plus avoir à lever ses mains du clavier c’est encore mieux.



ps: pour gTile, oui mais non, pas satisfait

ps2: j’aimerais beaucoup pouvoir repasser à gnome que je trouve joli, mais je suis trop habité au tiling maintenant pour m’en passer.


Le 26/09/2014 à 06h 29

Je suis personnellement utilisateur d’Awesome WM, un tiling window manager, mais je dois dire que Gnome a vraiment de la gueule. Et le support des gestures en multitouch, ça donne envie d’avoir un écran tactile !



Joli travail, c’est propre :).

Le 25/09/2014 à 22h 07

Sur ma Debian Sid :



% env X=“() { :;} ; echo shellshock” bash -c “echo completed”

bash: avertissement :X: ignoring function definition attempt

bash: erreur lors de l’import de la définition de fonction pour « X »

completed





Par contre :



env X=‘() { (a)=&gt;\’ bash -c “echo date”; cat echo

bash: X: ligne 1: erreur de syntaxe près du symbole inattendu « = »

bash: X: ligne 1: `’

bash: erreur lors de l’import de la définition de fonction pour « X »

vendredi 26 septembre 2014, 00:01:16 (UTC+0200)

Le 24/09/2014 à 14h 37







sr17 a écrit :



Ce qu’on apprends à l’école est t’il forcément destiné à faire de nous des professionnels des disciplines enseignée ?



Dans un environnement ou les ordinateurs sont partout, ou le futur est à l’usine automatisée, faut t’il vraiment expliquer toute l’importance de comprendre la programmation pour simplement comprendre le monde qui nous entoure ?







Enfin du bon sens, merci. C’est l’algo qui a éveillé mon esprit mathématique personnellement (j’ai appris à coder en primaire). C’est ce qui m’a permis de construire des raisonnements, de suivre des consignes. Car oui, comprendre ce que fait un algo c’est aussi utile pour celui qui voudra mettre en œuvre ou suivre des procédures complexes.



Je suis personnellement en faveur d’un apprentissage précoce mais pas poussé.


Le 18/09/2014 à 16h 45







colonelc4 a écrit :



J’ai une dalle TN de 5 ans, jaunie, avec angle de vision verticale complètement pourris <img data-src=" />…ces dalles devraient disparaître dans le temps vu leur durée de vie ridicule (5 ans), et le nombre de pixels morts ! pour info c’est du Samsung T220HD.











Tourner.lapache a écrit :



Cest pas parce que tu un écran de mauvaise qualité que c’est la techno qui est en cause hein.







J’ai le même modèle, acheté il y a environ 5 ans, et aucun problème. J’ai un ami qui a aussi le même écran et il s’en sert toujours et la dernière fois que je l’ai vu, j’ai rien vu d’anormal.



J’ai pas fait attention à l’angle vertical (je suis pas chez moi là, je peux pas regarder). Mais mon écran est en face de moi, je m’en fous complètement de l’angle de vision… L’angle est important pour une TV, pas pour un moniteur.


Le 18/09/2014 à 15h 42



indique s’être associé avec trois constructeurs afin de produire des scalers gérant l’Adaptive Sync





scalers ? Quelqu’un peut donner une explication ?

Le 18/09/2014 à 13h 02







Grumlyz a écrit :



Sur les tablettes/ smartphones, on gagne en finesse d’image en augmentant la définition, que ce soit au niveau de l’OS et tout le reste.



Sur un PC, tu as juste une image plus petite, des police de caractère plus petites, des pages web plus petites et c’est tout.







J’ai du mal à voir pourquoi sur PC ça te permet pas de gagner en finesse d’image… Quelle différence d’un point de vue matériel ?







Grumlyz a écrit :



Ce n’est pas à cause de la techno en elle même, c’est l’environnement Windows qui ne sait pas quoi faire de tous ces pixels et qui réduit tout.







Je ne connais pas bien Windows, mais là c’est pas un problème de PC mais d’OS qui visiblement ne sait pas gérer correctement le DPI. Les gens sous Mac OS ont l’air de moins se plaindre et je sais que sur Linux avec Gnome la situation s’arrange. Merci de pas confondre PC et Windows…







Grumlyz a écrit :



A Microsoft de se bouger le cul et faire un OS adapté aux grosses définitions.





Et pour ça il faut des utilisateurs… Mais c’est clair, il va falloir essuyer les plâtres au début. Mais avec un écran 4k, on peut toujours repasser la résolution en full hd au pire.


Le 18/09/2014 à 11h 47







Grumlyz a écrit :



Je ne parle pas de TV, c’est un vieux truc du passé pour moi.



J’ai eu un WQHD (1440p) pendant 2 ou 3 semaines, et je n’ai eu aucun mal à retourner au 1080p, au contraire.

Tout le temps obligé de jouer du zoom sur les pages web, avec les gros bugs qui vont avec.

Je m’attendais à avoir une claque visuelle sur les jeux en 1440p, elle n’est jamais venue (sauf pour South Park et le bâton de la vérité)

Youtube, au delà de 720p je ne vois aucune différence à cause de leur qualité de compression.

Netflix et consors… sans moi.



Après un écran légèrement incurvé, pourquoi pas si ça peut éviter certains reflets mais c’est clairement pas l’argument qui fera mouche, je ne suis pas près à y mettre un prix supérieur juste pour ça.



J’en reste à attendre l’arrivée de l’OLED sur du moniteur 27”, en attendant ce n’est ni la 4k ni les écrans incurvés qui vont me faire sortir la CB.







En même temps, si c’est pour jouer à des jeux non optimisés pour du 1440p et pour faire de la navigation web en fullscreen, l’intérêt était quand même assez limité. L’intérêt d’un 27” c’est aussi de pouvoir afficher deux pages en même temps et pas forcément de zoomer. Ou d’afficher un navigateur et un autre logiciel à côté. Si on veut juste que tout soit plus gros, bah on touche pas à la résolution.


Le 15/09/2014 à 10h 24







Adakite a écrit :



Par ailleurs, je trouve regrettable que seule la VOST-FR soit proposée, ils auraient pu garder la VOST-US pour mal entendants en plus (celle avec les “bruits”!), sachant qu’elle existe déjà aux US-Canada. C’est juste con et aurait servi a pas mal de gens. C’est pas le texte qui prend de la place hein, et c’était juste un copier/coller.







Je supporte pas la VOST-FR, je regarde généralement en Anglais et les sous-titres me permettent de compléter quand j’ai pas compris un truc oralement. Jongler entre deux langues c’est pénible, soit j’écoute, soit je lis.


Le 15/09/2014 à 07h 49







brazomyna a écrit :



C’est ça. Si tu veux garder la même taille de pixels qu’actuellement avec ton 30 pouces, le 4k t’emmènera vers du 45 pouces. Ce qui revient grosso modo à 4 écrans 22 pouces fullhd côte à côte (ou dit autrement ton 30 pouces actuel n’est qu’un 22 pouces fullHD avec plus de surface).

Et avoir beaucoup de surface d’affichage quitte à devoir bouger légèrement la tête, on s’y fait très vite et on revient rarement en arrière.







Du fullhd sur du 22 pouces ce n’est pas suffisant en DPI. Dès que le texte est un peu petit, on perd en finesse.


Le 13/09/2014 à 21h 01







luxian a écrit :



Non.

Les méthodes d’agrandissement ne donnenet pas pareil.

Autant sous 7Pro que sous Ubuntu 14.04 etc …







La faute des applis que tu utilises. Dans 5-10 ans tu diras que toutes les images sont trop grosses sur un vieil écran à la résolution trop faible. On est dans une période de transition où les applis doivent gérer des DPI de 92 comme des DPI de 150 ou plus. Et actuellement, souvent il n’y a que le texte qui est agrandi, les images deviennent donc ridiculement petites.



Sous Linux, le support du HiDPI est encore en cours de peaufinage dans Gnome (je parle pas d’Unity, je n’aime pas Ubuntu). C’est tout jeune, faut encore essuyer les plâtres. Mais va bien falloir s’y mettre.



Après, si c’est pour jouer, pour de la vidéo ou pour le web, franchement, ça ne sert à rien. Par contre si c’est pour lire des PDF ou faire du graphisme, c’est un vrai + l’augmentation du DPI.


Le 13/09/2014 à 16h 52







luxian a écrit :



Je préfère avoir un écran plus grand car il est posé sur un bureau large (écran à l’autre bout du bureau) et que je ne veux pas avoir le nez collé sur mon écran.







Si ton OS est bien fait, il est capable de tenir compte du DPI pour augmenter comme un grand la taille des polices. Le problème ce sont toutes les applis et site web incapables de gérer le HiDPI (et c’est pas simple !).



Tout ça pour dire que ce qui t’embête est temporaire. Pour des applis bien faites, une augmentation du DPI n’apporte que des avantages. Les polices sont plus propres, les dessins sont plus fins (suffit de regarder la gueule des smileys dans les commentaires <img data-src=" />). On ne s’en rend pas vraiment compte tant qu’on y est pas habitué. Prend un livre/emballage/autre avec du texte en tout petit, met le à coté de ton écran et regarde lequel est le plus clair…



(faut pas être myope au passage avec ta technique de l’écran à 1m <img data-src=" />)


Le 12/09/2014 à 07h 07







neeloots a écrit :



Bah l’appli tu la télécharges que la première fois (et à chaque MàJ), pas à chaque fois que tu la lances







Sur mon smartphone sous firefox OS, je la télécharge qu’une seule fois. Tu as le choix entre lancer l’appli sans installer ou l’installer.


Le 12/09/2014 à 06h 50







Kamalen a écrit :



Personnellement, je déteste fortement ces applications web qui au final sont très souvent toutes pareilles niveau look, moins performante et plus gourmandes en data (faut charger tout le site) face aux applications natives qui sont en plus bien mieux intégrés au style de l’OS.







Ah parce que l’appli classique en java, tu la télécharges pas en entier ? Et au contraire, elles ne sont pas toutes pareilles niveau look et c’est justement ce qu’on peut leur reprocher.


Le 11/09/2014 à 09h 52

Vous plaignez pas, il y a plein de métros sans réseau. Au moins il n’y a personne au téléphone <img data-src=" />.

Le 09/09/2014 à 14h 56







fraoch a écrit :



le problème est que j’ai l’impression que le nombre de cœurs s’apparente a la course mega pixels des appareils photos, ca sert uniquement a la course au marketing mais pas la technique.

Quand je vois des gens heureux d’annoncer qu’ils ont un lumina de 36mega pixels….sur un capteur de la taille de l’ongle du petit doigt….. paie ton bruit numérique …. mais c’est normal c’est l’effet marketing … bref la on commence a dériver sur le même phénomène.

et il suffit de voir la comparaison entre intel et amd, ces derniers avaient déjà plus de cœurs, mais étaient moins performants puisque pas réellement exploités….







Je ne pense pas que ce soit aussi extrême dans la mesure où l’augmentation du nombre de cœurs permet effectivement à certaines applications d’aller plus vite. Pour un développeur par exemple, compiler un gros projet C++ avec une machine de 8 cœurs c’est beaucoup plus rapide que sur du dual core. Pour un serveur web l’intérêt est évident. Pour un serveur de virtualisation c’est pareil.



Ce que tu dis je suis entièrement d’accord. Par exemple les gens n’ont plus d’appareil photo car ils ont un téléphone portable qui fait des photos soit disant 8 mega pixel. D’une part ils vont uploader leur photo sur facebook dans une résolution miteuse, et d’autre part, la qualité des photos est naze. On peut trouver des 2 méga pixel de bien meilleure qualité !

Par contre j’ai l’impression de voir la même chose sur les téléphones en qwhd sur du 5 pouces. Là j’ai vraiment l’impression que c’est une course marketing.


Le 09/09/2014 à 14h 40

Edit: mauvais bouton, comment on supprime ?

Le 09/09/2014 à 14h 39







knos a écrit :



Ok mais a un moment il va bien falloir que ça évolue quand même non? Après je ne suis pas développeur donc je vois pas ce qui peu être compliquer ou pas.







Il y a déjà eu une réponse mais la diversité des réponses te permettra peut-être de mieux comprendre.



Un programme c’est à la base une suite d’instructions qui permettent d’effectuer des calculs. Afin d’utiliser plusieurs processeurs, il est possible d’effectuer certains calculs en parallèle.



Doubler le nombre de cœurs ne permet pas nécessairement de faire avancer les choses deux fois plus vite. Pour bien comprendre, prenons l’exemple suivant : la fabrication d’une chaise (et une seule). Si tu es tout seul, tu enchaînes les étapes dans l’ordre et puis voilà. Si tu as un pote qui vient t’aider, tu peux lui confier la fabrication des pieds pendant que tu fais l’assise, etc. Nickel ça va 2 fois plus vite. Mais maintenant, si vous êtes 10 pour fabriquer la chaise, certaines personnes ne pourront pas aider. Tu peux pas leur filer un pied chacun par exemple. Et ils vont pas faire des demis pieds.



Mais si maintenant le problème c’est la construction de 1000 chaises, alors tu pourras affecter 100 chaises par travailleur et là tu auras une bonne utilisation des ressources. Ce deuxième exemple est typique du boulot d’un serveur web, et c’est ce qu’on appelle un pool.



Il y a donc des applications qui se prêtent bien à l’augmentation du nombre de cœurs et il y a d’autres applications pour lesquelles cela n’a pas beaucoup d’intérêt. Dans le cas d’applications de tous les jours, tu as généralement besoin que d’un ou deux cœurs et puis subitement l’application est capable d’utiliser plusieurs cœurs. Sauf que si le traitement est trop bref, le surcoût de création des threads aura annulé l’apport des multiples cœurs.


Le 09/09/2014 à 14h 49







jamesdu75 a écrit :



Si tu as 2 gamins dont 1 moins de 14 ans c’est au moins 35 € la séance cinoche.

Je parle pas du parking payant, des boissons ou pop corn, de l’attente interminable des pub (sauf Haribo en 3D <img data-src=" /> )







Hum, parisien ?


Le 09/09/2014 à 10h 01







OlivierJ a écrit :



Certes, mais en pratique les écrans ont des tailles adaptées à l’usage qu’on veut. Par exemple, si c’est du HD, ça ne sera pas en-dessous d’une certaine taille physique, genre 17 pouces (sur certains portables). De même, je ne pense pas qu’en 4K on descendra en-dessous d’une certaine taille physique.







Mon ordi portable qui a maintenant 3 ans a du full hd sur 15 pouces. Et niveau détail c’est très bien, on pourrait même augmenter un peu le DPI que mon œil pourtant pas parfait apprécierait. J’aimerais idéalement un DPI proche de 200. Donc du 2560x1440 serait juste parfait sur un 15 pouces. En plus, tous les contenus non adaptés pour le HiDPI pourraient simplement être multipliés par 2 sans dégradation.







OlivierJ a écrit :



Il y a pour les mobiles qu’on a le cas d’écran avec un DPI beaucoup trop élevé pour que ce soit utile, vu qu’à la distance de visionnage normale l’oeil ne peut plus distinguer les détails : je ne sais plus quel écran atteint 440 DPI, or au-dessus de 300 DPI, à la distance où on regarde un mobile, on ne distingue plus la différence.







Je suis d’accord, au dessus de 300 DPI, l’intérêt est faible. Encore une fois, c’est pour ça que je regarde le DPI et non la résolution. Car au bout d’un moment, tu as beau augmenter la résolution, cela ne te permettra pas d’y voir plus de choses.



Je veux du DPI de 200 sur des écrans que je regarde à 40-50cm de distance (moniteur) et je veux un DPI de 300 sur smartphone que je regarde à 20cm de distance. 96 c’est le minimum acceptable sur un moniteur. Et si je parle de DPI et non de résolution c’est pour m’éviter de manipuler taille de l’écran et résolution dans mes explications.


Le 09/09/2014 à 09h 24







OlivierJ a écrit :



N’importe quoi <img data-src=" />

Donc si je te dis que mon écran est en 300 DPI, ça définit la nature de l’écran ?

Ben non. L’écran peut faire 4 pouces comme 24.

Par contre, si je te dis que c’est un 1366x768 là c’est clair. Tu sais ce que tu peux afficher avec.







Tes yeux ne te permettront pas d’afficher la même chose avec cette résolution en fonction de la taille de l’écran.



Bref c’est un gros dialogue de sourd entre des notions qui se confondent. Le DPI c’est le ratio entre le nombre de pixels par la surface d’affichage. Alors bon, l’un dit : cool ça va augmenter la résolution et donc on pourra afficher plus de choses à l’écran. Et l’autre dit : cool ça va augmenter le DPI et donc on pourra voir plus de détails et donc on pourra réduire la taille de la police pour voir plus de choses à l’écran. C’est la même chose.



Je préfère utiliser la notion de DPI car je sais que mes yeux ne sont pas capables de voir la différence entre un dpi de 200 et 300. Par contre entre du 100 et 200, on sent une bonne amélioration. Donc si on me dit : du 5K sur un 27”, je vais m’intéresser au DPI pour savoir si je dépasse les 150 ou pas. Et si on me sort du 8K sur un 24” je vais pouvoir dire : désolé mais mes yeux s’en foutent un peu, et ça fait beaucoup trop de pixels à afficher pour ma carte graphique.


Le 08/09/2014 à 20h 13







OlivierJ a écrit :



Heu, le DPI on s’en fiche, ce qui compte c’est la résolution, c’est ça qui permet d’avoir à la fois un nombre de lettres suffisantes par ligne (ou par page) ET des lettres fines.



Je lis plus de texte sur mon 24 pouces 1920x1200 que sur mon mobile 4-5 pouces 800x480 qui pourtant a un DPI genre 2-3 fois plus élevé.







Tu veux dire définition et non résolution ? J’ai du mal à comprendre ce que tu veux dire. Bien-sûr qu’avec un écran de 24 pouces on peut lire plus de texte qu’avec un écran de 5 pouces en 800x480 oO.



Le DPI c’est ce qui permet d’avoir des lettres fines par rapport à la taille de l’écran. C’est pas parce que je te mets du 1920x1200 sur ton smartphone 5 pouces que tu pourras lire autant de texte que sur un écran 24 pouces. Mais si le DPI sur le 24 pouces est trop faible, on ne pourra pas afficher du texte trop petit.


Le 08/09/2014 à 18h 15







Constance a écrit :



Vraie question : quelqu’un peut m’expliquer l’intérêt d’une telle densité de pixels sur un moniteur de PC ?

Parce qu’à part éventuellement supprimer le besoin d’antialiasing dans les jeux 3D, a priori je vois pas tellement…







J’ai sous les yeux un écran avec un DPI de 150 environ et un autre de 96. Alors bien-sûr, utiliser une interface conçue pour du 96dpi fait que tout devient trop petit, c’est normal. Et en période de transition c’est le bordel.



Mais là en ce moment je lis beaucoup de pdf et c’est beaucoup plus confortable sur du 150 dpi. En fait, tu peux dézoomer, c’est petit mais ça reste lisible (texte et figures). Alors que sur du 96dpi, quand c’est trop petit, bah on arrive plus à décerner les lettres qui deviennent trop moches car pas assez de pixel pour les afficher correctement. Donc en gros, en augmentant le dpi, tu arrives à lire du texte plus petit. Plus besoin de zoomer autant sur les pdf.



Si tu veux faire un test similaire, affiche du texte sur ton écran dans une police toute petite. Prend un livre ou autre avec une police qui a physiquement la même taille. Où est-ce que c’est le plus clair ?



Après, l’intérêt de dépasser le 150, c’est selon moi pour pouvoir faire de l’upscaling avec un facteur de 2 et donc sans dégradation.


Le 08/09/2014 à 13h 27







arkturus a écrit :



Bientôt le préservatif connecté, qui, via ton smartphone, publie sur ton compte twitter, facebook les statistiques de la session, et t’envoie par mail un rapport complet sur l’état de la machine. <img data-src=" />







Hum, ça existe pas déjà ? Me semblait avoir lu un truc du genre, mais c’était peut être fictif pour montrer les dérives des objets connectés.



Par contre j’ai vu une startup française spécialisée dans le god connecté. Et ça c’est vrai et c’est pas con en fait quand on regarde de près <img data-src=" />. Ça permet entre autre le contrôle à distance par internet pour les couples séparés par la distance <img data-src=" />.


Le 07/09/2014 à 17h 09

universo est excellent, il existe sur Android ?

Le 05/09/2014 à 18h 21

J’ai du mal à comprendre ce que ça vient foutre dans l’interface de Firefox. WebRTC fonctionne très bien depuis longtemps sur Firefox, il suffit d’aller sur l’un des nombreux site qui permet de faire du WebRTC en partageant juste l’URL, sans inscription. Encore un plugin je comprendrais parfaitement, mais là…



Enfin bon, si c’est présent, je l’utiliserai… Si je peux passer le lien à n’importe qui utilisant chrome ou firefox, c’est super.

Le 03/09/2014 à 12h 32

J’espère que tous ceux qui râlent en disant qu’ils ne regardent presque plus la TV ne sont pas des gens qui trouvent la TV inutile car ils ont déjà piraté toutes les séries qui y sont diffusées. Car c’est un peu facile de dire : je ne regarde pas la TV (en plus, ça fait cool), mais en pratique télécharger à tout va ce qui y est diffusé et acheté avec les fonds publics.



Idem avec la radio vu que la redevance ce n’est pas que pour financer la TV.

Le 02/09/2014 à 13h 39

Effectivement, avec un zoom arrière sur mon 17” en 1280, le site devient utilisable… Par contre sur mon 15” en full-hd, c’est juste parfait sans rien toucher.

Le 02/09/2014 à 12h 15

C’est quand même super pénible d’avoir une barre de scroll horizontale sur un écran en 1280px de large (sans barre verticale) ! C’est d’autant plus dommage que c’est juste une histoire d’une dizaine de pixels de trop.



Tout le monde n’a pas un écran large de 22 ou 24 pouces. Les 17 pouces ça reste encore fréquent.