votre avatar Abonné

robin4002

est avec nous depuis le 12 janvier 2016 ❤️

195 commentaires

Le 02/08/2016 à 18h 24

Faut pas être pressé. Il y a un site de Free sur Colmar qui a été ajouté fin 2011 et qui n’a que été activé il y a deux mois. (Free a en profité pour mettre le 1800 en même temps d’ailleurs).



Obtenir une autorisation ça prend en général pas mal de temps et une fois l’autorisation obtenu il faut de quoi activer le site (alimentation électrique + fibre ou lien FH).

Le 01/08/2016 à 18h 32

Je pense de même.

La promesse du Ubuntu Edge c’était un smartphone prêt pour la convergence. On est en 2016 et la convergence d’Ubuntu touch commence tout juste à fonctionner et à s’approcher un stade prêt pour le production (d’ici l’année prochaine à mon avis ça pourra être utilisé sans soucis). L’ubuntu edge était sensé sortir en mai 2014.

Même si le financement de L’ubuntu edge avait été un succès, Canonical n’aurait pas eu les ressources pour rendre la convergence réel à la date prévu.



À mon avis le but principale de cette campagne était de trouver des partenaires ainsi que faire parler de l’os et ils ont réussi.

L’Ubuntu Edge, c’était surement juste un objectif secondaire, au cas où il y avait vraiment beaucoup de monde prêt à financer. Si Canonical avaient vraiment réussi à collecter les 32 million de $, je me demande s’ils aurait réussi à finaliser l’os dans les temps.

En tout cas ça aurait été un magnifique projet, s’il était disponible je pense que je me serai acheté un Ubuntu Edge.

Le 01/08/2016 à 09h 39

Non, ça risque pas d’être le cas car pour les smartphone il y a de gros problème de pilote.

Ubuntu touch a besoin d’un portage spécifique pour chaque appareil, il n’y a pas d’iso universel contrairement à la version desktop.

Le 27/07/2016 à 20h 16

Je ne l’avais pas vu ça, en effet pouvoir faire cohabiter les deux pilotes est une bonne chose.

Il m’arrive d’avoir des soucis dans certaines situations avec le proprio mais pas avec le libre et inversement. (exemple concret, si je record avec obs avec le pilote libre aucun souci, avec le pilote proprio unity clignote. à l’inverse kdenlive crash avec nouveau mais fonctionner avec le pilote propriétaire …).

 

Mais bon Nvidia a encore beaucoup de progrès à faire envers le libre, ça serait bien qu’ils arrivent à s’entendre avec des dev de Wayland (les dev de Wayland ont déjà mit tout en place pour GBM mais Nvidia veut imposer l’utilisation des stream pour son pilote propriétaire …). Tant que cette situation ne sera pas débloqué le pilote propriétaire ne fonctionnera pas avec Wayland.



Et un petit coup de main pour booster les perf de mesa pour maxwell / pascal (et apporter de l’aide pour les extensions openGL, maxwell et pascal sont encore bloqués à OpenGL 3.3 avec mesa …) ne serait pas de refus.

Le 27/07/2016 à 11h 37

Nvidia s’en fiche du pilote libre :/



Si tu veux un pilote complet et performant il faut utiliser le pilote propriétaire.

Le 22/07/2016 à 11h 56







martino a écrit :



ok y’a de sproblèmes coté nvidia…



Au moins de leur coté on a pas des drivers qui se prennent une claque / à leur puissance théorique(avec des bus mémoire plus important , + d'unité etc...ils sont derrière)       

le passage aux apis qui delèguent le taf d'optimisation ne fait en réalité que le confirmer plus qu'autre chose.

au final c'est une bonne chose car leur carte redeviennent bien plus compétitive et c'est le consommateur qui en profite.....

Mais coté driver....ce que propose amd est juste une blague si on réfléchit 5 secondes.(et on ne parlera pas de linux)








Oui en terme de fps/perf brute le ratio est beaucoup plus faible chez AMD que chez Nvidia.     



Surement en partie dû au pilote comme tu l’as dit. Mais il y a aussi d’autres facteurs. La façon dont son conçu les api actuelles (DX11, OpenGL) laisse moins de flexibilité et ça peut être aussi à cause de ça.

Par exemple en DX11 / OpenGL il est impossible d’exploiter correctement plusieurs cœurs. Vulkan et DX12 corrigent ce problème. Et ça aide beaucoup, pas que pour les cartes AMD :

youtube.com YouTubeLa façon dont est fait GCN fait qu’il est plus compliquer de l’utiliser à son potentiel maximum (hypothèse). On peut faire la même hypothèse concernant Maxwell & Kepler, le ratio fps/perf brute étant meilleur sur Maxwell que sur Kepler.



Difficile de confirmer ses hypothèses et de quantifier chacun de ses  facteurs.



Par contre concernant le pilote AMD pour Linux, depuis l’arrivé d’AMD GPU il y a clairement du mieux (et surtout l’implémentation est bien plus adapté au modèle de Linux).

Et surtout chez AMD il est possible d’avoir un pilote libre potable, alors que celui pour Nvidia est catastrophique sur les deux dernières gen (Maxwell et Pascal).

Du-coup obligé d’utiliser le pilote propriétaire et ce qui fait peur c’est que les dev de Wayland et de Nvidia n’arrivent pas à s’entendre sur la mise en place de Wayland avec le pilote graphique (les dev de Wayland ont déjà tout mit en place pour GBM et les dev de Nvidia veulent imposer l’utilisation de EGLStreams).

Du-coup tant qu’il n’arrive pas à se mettre d’accord il faut faire le choix entre vieux Xorg + pilote performant ou Wayland moderne + pilote libre catastrophique si on a une carte Nvidia.

J’espère que cette situation va se débloquer, d’après phoronix les dev de Nvidia devraient rencontrer les dev de Wayland pour discuter sur le sujet :http://phoronix.com/scan.php?page=news_item&px=NVIDIA-Wayland-Design-XDC

 


Le 20/07/2016 à 13h 08

Oui tu as vu que je pleure ? Je partage simplement mon expérience sur le réseau de Free.

Le 19/07/2016 à 08h 29

Dans certaines zones à très très faible densité il y a une antenne posé par SFR ou Bouygues ou Orange partagés entre les 3 opérateurs.

Free n’existait pas encore lors de la signature de ce contrat, donc il n’en fait pas partie.



C’est pour ça que la couverture de Free même avec itinérance est plus faible que celle d’Orange.

Le 19/07/2016 à 07h 43

Avec Free en itinérance sur le réseau d’orange il m’est impossible de charger une vidéo youtube.

La navigation web passe, mais sur les sites en https c’est très très lent (sauf sur google étrangement).



En 3G sur le réseau propre les vidéos passent et la navigation web est plus fluide, mais les débits sont toujours faible (4 à 7 mbps en journée, 10-11 au mieux quand il y a moins de monde).

Surement du haut fait que le réseau 3G de Free est moins dense et qu’ils ont une largeur de bande plus faible en 3G (5 MHz sur la fréquence 900 et 5 MHz sur la fréquence 2100 contre 10 MHz en 900 et 15 MHz en 2100 pour les autres opérateurs).



En 4G je n’ai pas à me plaindre, sauf pour la couverture en intérieur qui n’est génial (actuellement en 3G là où je suis avec 6 mbps, si je sors du bâtiment j’ai plus de 50 mbps en 4G …).



Le seul autre gros problème c’est que mon téléphone a tendance à rester bloquer sur le réseau d’orange, du-coup il m’arrive d’avoir une 3G inutilisable alors que je pourrai avoir une 4G bien meilleur dans certaines zones. Le seul moyen que j’ai trouvé c’est de sélectionner manuellement “Free 4G” dans la sélection de réseau pour forcer la 4G (et attention à bien remettre “auto” ensuite, sinon une fois sur une antenne orange le téléphone restera bloqué à jamais sur le réseau d’orange …).

Cela m’arrive presque à chaque fois le cas que je pars de mon petit village (couvert par l’itinérance orange) et que j’arrive sur Colmar (où il y a bien de la 4G de Free).



Bref, il y a encore du chemin à parcourir pour Free.

Le 08/07/2016 à 13h 31







inso a écrit :



En attendant nvidia va encore se gaver avec sa 1060, surtout si comme annoncé elle peut monter a plus de 2Ghz et peut être titiller une 980ti stock pour 250€… 



C’est beau de rêver. 1260 SP, même à 2 GHz ne seront pas au niveau de 2816 SP à 1076 MHz. à 2 GHz elle sera au niveau d’une GTX980 OC, mais elle restera largement derrière une GTX980ti.


Le 07/07/2016 à 17h 35

http://www.hardware.fr/articles/948-13/nuisances-sonores-temperatures-photos-ir.html

82° sur la GTX1080 FE, 92° sur la GTX980ti.

Ce genre de composant peuvent monter assez haut en température sans trop de problème.













GrosBof a écrit :



On est vraiment sur les mêmes perf que la GTX 980 ? Ça me parait vraiment étonnant.





Pour l’instant ce sont les chiffres communiqué par Nvidia, il y a en effet de quoi avoir des doutes car sur le papier la GTX1060 a des perf théorique un peu plus faible que la GTX980 (Maxwell et Pascal sont très proche en ratio perf pratique/perf théorique, on est pas dans le même cas que Kepler vs Maxwell).



On verra bien une fois les tests indépendants publiés si ça confirme ou pas.

En tout cas les +70% de perf entre la GTX980 et 1080 dont Nvidia avait parlé lors de l’annonce ont bien été retrouvé dans les tests indépendants.


Le 07/07/2016 à 16h 26

96,3 pour des VRM c’est encore correcte.



Oui les RX 480 customs auront du 8 pin car respecter les normes c’est toujours mieux.



AMD aurait aussi du mettre un 8 pin et gérer autrement le câblage d’étage d’alimentation, mais comme ils voulaient communiquer autour de la faible conso de polaris ils ont eu la super idée de mettre un connecteur 6 pin … (enfin ce n’est qu’une hypothèse, AMD n’a pas communiqué la raison de la présence de ce 6 pin non adapté …).



 

Le 07/07/2016 à 15h 49

En général les alim à fabrication douteuse n’ont même pas de câble pci.



Avant que la norme pci 8 pin ne soit disponible, beaucoup de carte haut de gamme dépassait les 75 W du pci 6 pin, ça n’a jamais causé de problème.



Ce qu’il faudra vérifier surtout avec ce pilote correctif c’est l’impact sur l’étage d’alimentation.

Il y a 7 VRM sur le pcb de la RX 480, 6 pour le gpu et 1 pour la mémoire.

Concernant les 6 du gpu, 3 sont connectés sur le 6 pin et 3 autres sur le port pci. Actuellement la répartition c’est du 5050, le correctif du pilote va simplement modifier ce ratio avec du 4060 par exemple (je ne connais pas les valeurs exactes)

Du-coup il faudra vérifier les températures des VRM les plus sollicités.

 

Sur le test d’hardware.fr avec le pilote actuelle les VRM ont atteints 96,3 ° en charge très lourde :http://www.hardware.fr/articles/951-10/nuisances-sonores-temperatures-photos-ir….

Le 22/06/2016 à 11h 44

Il devrait plutôt leur apprendre l’assembleur :p



Plus sérieusement, je pense que c’est une bonne idée d’introduire la logique de la programmation aux collégiens.

Ce qui serait pas mal aussi ça serait de proposer des cours de python en option pour ceux qui le souhaites. Le python c’est très simple à prendre en main, c’est un excellent langage pour débuter.

Le 18/06/2016 à 14h 18

Si tu considères quelques changements dans le bios et une augmentation de fréquence sont suffisant pour dire que c’est une nouvelle carte en effet ce n’est pas un renommage.




 Pour qu'une carte ne soit pas un renommage moi je considère que le gpu doit être différent.      

Car bon, tu prends une R9 290X, tu flash le bios d'une R9 390X et voila tu as une R9 390X (c'est possible).

Donc pour moi ça reste la même carte.



 



Et puis si on en reste à ta définition dans ce cas il n'y a jamais eu de renommage, que ce soit chez AMD ou Nvidia. Car à chaque fois que ces derniers ont réutilisé un gpu ils ont toujours au minimum changé les fréquences.

Le 17/06/2016 à 21h 34

La R9 390X a des fréquences plus élevé que la R9 290X. Le bios est aussi différent, AMD ont fait quelque optimisation sur ce dernier. Mais la puce est exactement la même.

Le 17/06/2016 à 16h 19

Quand maxwell est sortie les cartes kepler n’ont plus eu une seule optimisation, a un tel point qu’une R9 290X est maintenant au niveau d’une 780ti alors qu’elle était bien derrière lors de sa sortie (et coutait aussi ~200 € de moins). Enfin du côté d’AMD c’est surtout le renommage de la R9 290X en 390X qui a permit de continuer à optimiser ancienne carte en même temps que les “nouvelles”.



À côté de ça les tests DX12 et Vulkan ne sont vraiment pas encourageant concernant Maxwell qui ne semble pas du tout optimisé pour ces nouveaux api (gain très faible voire régression là ou Pascal et surtout GCN profitent d'un bon gain).  Ces api commencent à être de plus en plus utilisé.    






Personnellement je déconseille l'achat de ses cartes en fin de vie.      

Il est bien mieux d'attendre la sortie des RX 480 / 470 / 460 et des GTX 1060 / 1050.

Le 13/06/2016 à 18h 35

Console = hardware identique + api bas niveau = optimisation très poussé

PC = hardware diversifié + api haut niveau (un peu plus bas niveau avec DX12 et Vulkan) = optimisation moyenne.



Une R7 360 (768 SP à 1050 Mhz, soit  1,61 Teraflops) est légèrement plus performante qu’une Xbox one (768 SP à 853Mhz, soit  1,31 Teraflops).

Essaies de faire fonctionner un jeu pc sur une R7 360 aussi bien sur que la version Xbox one du jeu, tu n’y arrivera pas.



Le monde du pc n’est pas comparable au monde des consoles.

Le 30/05/2016 à 13h 44

Free Sync avec des cartes Nvidia !?!?

Le 27/05/2016 à 09h 27

En effet, il serait temps que MS s’occupe de ce dernier …

Le 26/05/2016 à 13h 56

Plus de fréquences = moins de risque de saturation.

SFR utilisaient souvent seulement la bande 20 (LTE800) qui proposait seulement un débit de 75 mbps max et pouvait assez vite saturer. (c’est pour ça qu’ils sont dernier sur la baromètre 4G de Nperf).



Maintenant ils déploient visiblement les trois bandes, ce qui est une bonne chose.

Le 19/05/2016 à 16h 35

des blowers qui refroidissent sans se faire entendre une carte à 180W de tdp j’en ai encore jamais vu.



Ils reviennent au prix de la génération 8, sauf qu’à l’époque à ce prix tu avais le gpu plus haut possible de la génération.

La c’est un GP104, donc chip milieu de gamme. Assez rapidement un GP100 ou GP102 va compléter la gamme avec une GTX1080ti qui sera sûrement encore plus cher.



Enfin il y avait aussi une 8800 ultra à l’époque sortie à 829 $. Mais c’était la même puce que la 8800GTX avec des fréquences plus hautes, donc peu de perf en plus. La 1080ti sera sûrement dans le même ordre de prix sauf si AMD a de quoi faire descendre les prix …



Mais bon je trouve toujours ça trop cher pour une carte graphique. Après si des gens sont prêt à mettre autant dedans qu’ils achètent s’ils veulent, mais le soucis c’est que tant que le consommateur mettra + les constructeurs profiterons pour monter toujours + les prix. Et en même temps continuerons a décaler les gammes, ce qui rend les cartes milieu de gamme moins accessible (quand je vois le prix de la 1070 je crains que la 1060 sera au dessus des 200 € habituel des GTXx60)

Le 18/05/2016 à 18h 14

Et le modèle de base ça va être quoi ?



Une carte toute basique avec un blower.      

Les bonnes custom seront surement à plus de 750 €.






Et non la Titan X n'est pas vraiment la plus puissante de sa génération, certaines 980ti custom sont devant, même très proche de cette nouvelle 1080.      

Et puis la 1080 est la plus puissante de sa génération pour l'instant ! Vu la petite taille du die il y aura sûrement une 1080ti encore plus cher.






Nvidia fait une fois de plus glisser le prix vers le haut, c'est ça que je dénonce.      

Le 16 nm est sûrement plus cher que le 28 nm comme le process est nouveau, mais le die est quand même 2x plus petit que celui d'une 980ti et plus petit que celui d'une 980. Je doute que le coût de production d'une 1080 soit plus élevé qu'une 980ti. Sans oublier que le pcb est plus simple car il ne doit assurer seulement 180W contre 250 celui de la 980ti.















Raiden972 a écrit :



Il n’y a pas que la matière première qui rentre dans le coup de

fabrication d’un composant électronique. Il y a les coûts de R&D (1

milliard de $ selon nVidia pour concevoir l’architecture Pascal), Toute

la phase de fiabilisation de la nouvelle technologie de gravure Finfet,

qui est grandement responsable de la réduction du dégagement termique

(le fameux perf/watt) et de la réduction de la taille du DIE (la fameuse



économie d'échelle).        






 Réduir le prix d'un produit à la quantité de matière première nécessaire à sa conception c'est réducteur.       






 A cela s'ajoute deux paramètres de marché :       

1. nVidia est leader du GPU haut de gamme.

2. L'offre et la demande définissent naturellement le prix du produit en fonction de sa performance.






 Résultat logique => 700€       








 Le seul facteur qui pourrait tirer les prix vers le bas c'est la      



concurrence. Attendons les annonces d’AMD et de son Polaris…






La GTX680 inaugurait aussi un nouveau process et une nouvelle architecture. Son prix n'était que de 500$. 100$ de moins que la GTX1080, 200 de moins que la FE edition (qui n'est juste qu'un joli nom marketing pour vendre le produit plus cher). Après le ratio $/€ actuelle n'aide pas non plus pour les prix en France :/

Le 17/05/2016 à 21h 58

Tu utilises la titan X comme base de comparaison qui est une des cartes avec le pire perf/prix possible …

Compares à une GTX980ti qui propose les mêmes perf qu’une titan X pour seulement 700 € et tu n’as pas du tout le même résultat.

En effet le perf/prix de la 1080 reste meilleur que la GTX980ti, mais c’est sensé être la remplaçante de la 980 et non de la 980ti.

Sans oublier que le die ne fait que 317mm² … Celui de la titan x et de la GTX980ti fait 601 mm² donc bien plus cher à produire.



Donc oui, 700 € pour cette 1080 ça fait très cher.

Le 17/05/2016 à 19h 00

Nvidia commence à faire comme Intel, les perf montent mais le prix aussi. (encore que chez intel les perf montent vraiment doucement, ce qui n’est pas le cas ici).



Pour un die de seulement 317mm² et un étage d'alimentation qui doit assurer seulement 180W ça fait cher 789 €.      

Nvidia marge énormément. Enfin bon c'est une entreprise, le but d'une entreprise reste faire de l'argent.






On verra bien la réponse d'AMD, par contre les rumeurs vont tous vers deux petits gpu (un dans les 200mm² et un dans les 100mm²), pas la peine de s'attendre à une GTX1080 killer.      

Je m'attend plus à une carte au perf d'une 390X/Fury X grand maximum pour un prix bien plus faible. (entre 200 et 400 € pour faire large).

Le 04/05/2016 à 10h 00

Vraiment dommage, j’attends avec impatience la convergence.

Enfin c’est vrai qu’il vaut mieux privilégier la stabilité aux fonctionnalités/nouveautés.

Le 03/05/2016 à 17h 04

Le changement sur la fréquence 1800 le 25 mai est aussi intéressant pour Free qui va passer de 5 à 15 MHz (de quoi augmenter le débit maximum théorique de 75 mbps)

Le débit théorique maximum en 4G 1800 passe donc de 37.5 mbps à 112.5 mbps et le débit théorique maximum en 4G+ (en utilisant la fréquence 1800 et 2600 en même temps) passe de 187.5 mbps à 262.5 mbps.

Le 28/04/2016 à 11h 40

Pas Tick-Tack-Tock, c’est Process-Architecture-Optimization <img data-src=" />



ZEN devrait en effet sortir fin 2016, le 10nm chez Intel n’arrive que milieu 2016. Ça laisse 6 mois à AMD pour vendre un maximum ZEN. Et encore, si le 10nm d’Intel est aussi bon que le 14nm d’intel à ces débuts, AMD aura encore pas mal de temps pour vendre ZEN. Enfin, à condition que les performances soient au rendez-vous.



Je n’attend pas grand chose de Kaby lake, actuellement intel avance à coup de +5-7% depuis haswell.

Ils se concentre surtout sur l’amélioration de leur iGPU.





En ce qui concerne polaris, AMD promet un gain d’efficacité énergétique entre x2 et x2,5. Polaris 10 vise le milieu de gamme et les pc portable gameur haut de gamme, Polaris 11 vise le milieu de gamme.

Aucun GPU sur le haut de gamme, il va valoir attendre vega avec l’HBM2 pour ça.

Le 27/04/2016 à 11h 56







tazvld a écrit :



Très régulièrement, j’ai des problème. Il n’y a pas 1 mois, mise à jour ou que sais-je (Ubuntu Gnome edition): écran noir au démarrage, rien, nada… Je démarre sur un noyau précédent, ça marche … <img data-src=" />

Régulièrement, je fais un “alt+f2, r” pour relancer gnome car j’ai des problèmes d’affichage…

Et ça c’est que pour la partie graphique. Je ne parle pas des programmes qui plantent régulièrement (programme lié à l’OS/bureau comme Kate ou Nautilus).



Ubuntu 14.04 ou 15.10 ?

Tu as quoi comme carte graphique sur ton pc ?


Le 12/04/2016 à 09h 36







maestro321 a écrit :



Montre moi le tutoriel d’installation + configuration de windows qui se termine par une configuration avec des lignes de commande dans ce cas..






Je suis sous Windows, je veux désactiver la veille prolongée car le fichier prend de la place et que je n'ai pas besoin de cette fonctionnalité.     



Je tapes sur Google “Windows désactiver la veille prolongée”, premier lien :http://www.pcastuces.com/pratique/astuces/3407.htm. Deuxième lien :support.microsoft.com MicrosoftHo, une ligne de commande. C’est pourtant du Windows et non du Linux. Étonnant.


Le 05/04/2016 à 14h 39

Ah je n’avais pas vu cette information. Toujours bon à savoir.

Le 04/04/2016 à 22h 07







domFreedom a écrit :



Je doute que les opérateurs qui ont des blocs dans les 800 MHz continuent massivement à déployer des antennes dans cette bande de fréquence : ils vont miser un max sur le 700 MHz (meilleure pénétration dans les bâtiments) <img data-src=" />



ça m’étonnerai. SFR et Bouygues n’ont que 5 MHz, ce qui donne un débit théorique de 37,5 mbps. Et avec seulement 5 MHz ça sature vite (suffit de voir la 3G de Free en réseau propre, elle est presque toujours saturé ce qui est normal car Free n’a que 5 MHz en 900 et 5 en 2100).

Orange a 10 MHz, il a également 10 MHz sur la bande 20 (800 MHz).

Et pour finir Free n’a que 10 MHz sur la bande 28 (700MHz).



En fait il y a plus de chance que les opérateurs utilisent la bande 20 et 28 en même temps. Les téléphones compatible LTE advanced (4G+) sont capables d’utiliser plusieurs bandes en même temps.

Ainsi orange pourra proposer dans les zones à faible densité 10 MHz sur la bande 20 et 10 MHz sur la bande 28, soit un débit théorique de 150 mbps (contre 75 actuellement avec seulement la bande 20).

SFR et Bouygues pourront proposer 112,5 mbps avec 10 MHz sur la bande 20 et 5 sur la bande 28.

Free seulement 75 mbps avec les 10 MHz qu’il a sur la bande 28.



La porté et la pénétration de la fréquence 700 sont un peu prêt les mêmes que celles du 800.



Les basses fréquences sont surtout adaptés aux zones à faible densité, après rien n’empêche les opérateurs de les utiliser également en ville pour avoir une meilleur couverture à l’intérieur des bâtiments ou augmenter les débits (Bouygues proposent déjà dans quelques de villes 10 MHz sur la bande 20 + 20 MHz sur la bande 3 (1800 MHz) + 15MHz sur la bande 7 (2600) ce qui donne un débit théorique de 337.5 mbps en comptant 37,5 mbps par tranche de 5 MHz. Et grâce à la modulation 256 QAM (+ 33&nbsp;%) le débit théorique atteint même 450 mbps).


Le 24/03/2016 à 21h 46







Rogan a écrit :



Dites, certains savent si sur un DE d’une distro il est possible d’avoir la prévisualisation des fenêtres ouvertes dans la barre des tâches comme dans Windows (et avant ça Compiz)? Ça gène vraiment mon père dans son utilisation sur une Ubuntu avec Unity et je n’ai rien trouvé de probant…

Merci :-)





Toujours possible sous Ubuntu 15.10 avec compiz :

http://i.imgur.com/6dVsWNk.png


Le 15/03/2016 à 15h 22

En ce qui concerne DX12 seul Skylake le supporte. Donc à mon avis il n’y aura pas de support non plus pour Vulkan pour les anciens chipsets. Les pilotes Intel sous Windows c’est une catastrophe, de l’obsolescence de partout. Les chipsets avant ivy bridge n’ont même pas de pilote pour W10, donc tu as juste le pilote générique (pas d’openGL du-coup je vois régulièrement des gens sur les forum minecraft qui ont des problèmes puisque avec ces chipsets après passage sous W10 MC ne fonctionne plus …).

&nbsp;

Sous Linux heureusement le pilote Intel est open source et est développé à la fois par Intel et la communauté Linux. Du-coup il est bien mieux suivi et plus stable.

Le 15/03/2016 à 15h 16

Oui G-Sync est arrivé avant FreeSync.

Mais bon G-Sync est une horreur qui te conditionne chez Nvidia et en plus fait monter la facture de l’écran. Perso j’ai horreur de ça.

AMD a le mérite d’avoir lancé FreeSync en standard ouvert et la technologie ne nécessite pas de module couteux intégré à l’écran. Sans oublier que FreeSync évolue et est désormais compatible HDMI.

Chez Nvidia G-Sync ne semble pas avoir bougé depuis sa sortie.

Le 15/03/2016 à 11h 44







otto a écrit :



@gitan666



NVidia contrairement à AMD est très proche de la recherche et quasi systématiquement premier sur les innovation. Au pif pour ce que je vois passer dans les papier de recherche comme la rasterization conservative, le bindless (pas de binding = gros gain de perf) ou même les shaders avec include multiple…





Lol ? GDDR4 et GDDR5 -&gt; AMD les premiers.

HBM -&gt; plusieurs années de cherches entre AMD et SK Hynix -&gt; AMD les premiers.

DX12 & Vulkan -&gt; issue de Mantle -&gt; AMD.



Nvidia innove aussi (le gpu tel qu’on le connait aujourd’hui c’est Nvidia qui l’a conçu et c’est également eux qui ont populariser le terme de gpu).

Mais dire qu’ils sont “quasi systématiquement premier” c’est du grand n’importe quoi x)



&nbsp;

Pour la HBM2 ça me parait logique. La production de masse d’HBM2 chez SK Hynix ne commence que en Q3 2016. Vega sera surement très proche de Polaris (vu le faible délai qui sépare les deux) il y a de forte chance que comme Fiji ce soit juste la même archi qu’avant mais avec la HBM qui consomme moins d’où le bon en perf énergétique (Fiji c’est 2xTonga avec de la HBM au lieu de la GDDR5).

Il y a 2 gpu Polaris, 11 et 10, de quoi représenter le milieu et haut de gamme. Vega sera surement le très haut de gamme, une “Fury X2”.



Nvidia peut proposer un gpu avec HBM2 avant AMD grâce à Samsung qui a déjà commencer la production de masse. Mais c’est pas sûr que Nvidia sortent le gros Pascal aussi vite, le gros Maxwell (Titan X et 980ti) est sortie presque un an après les GTX980 et 970.

Et il ne faut pas s’attendre à voir de la mémoire HBM sur une GTX1080, la HBM est pour l’instant réservé au très haut de gamme car très couteuse.


Le 14/03/2016 à 22h 02

” Il faut dire qu’entre l’arrivée de Vulkan, DirectX 12 ou encore la montée en puissance de la réalité virtuelle, ces derniers ont de quoi préparer le terrain pour leurs prochains GPU.”

Sans oublier l’arrivé du 14 et 16 nm après avoir été bloqué en 28 nm sur 3 générations.

Le 06/03/2016 à 00h 42

“Comme c’est le cas depuis plusieurs mois, BQ profitait du salon de Barcelone pour mettre&nbsp;en avant plusieurs terminaux sous Ubuntu : le smartphone&nbsp;Meizu Pro 5&nbsp;ainsi que la tablette Meizu M10. Mais le fabricant espagnol en profitait également pour présenter&nbsp;une version améliorée de son Aquaris X5, le très simplement baptiséAquaris X5 Plus. ”

Petit problème ici, BQ et Meizu sont deux entreprises différentes, elles ont par-contre en commun le fait d’être partenaire avec Canonical.

La tablette M10 vient de BQ et non de Meizu.

Le 02/03/2016 à 11h 55

Unity 8 avec mir proposé alternativement pour les tests sur Ubuntu, Wayland proposé alternativement pour les tests sur Ubuntu Gnome.



C’est enfin le début de la fin de x11.

Le 01/03/2016 à 17h 36

De nos jours l’utilisateur n’a plus le contrôle de son OS …

Sauf sous GNU/Linux <img data-src=" />

Le 21/02/2016 à 12h 20







dualboot a écrit :



hâte de voir le résultat. J’ai été un peu déçu par la 15.10 et les pilotes proprio de AMD.





Quel modèle de carte graphique ?

Personnellement&nbsp; ma HD 7770 tourne bien avec le pilote libre et le pilotes proprio sous Ubuntu 15.10. Par contre j’ai préférer rester sur le pilote libre, le pilote propriétaire étant assez gourmand en cpu.


Le 18/02/2016 à 21h 51

Pas de MHL mais Canonical travail sur le support de mirascreen qui permet d’afficher sur un écran via le wifi.

Les téléphones meizu sous android sont déjà compatible avec cette norme, ça fonctionne plutôt bien (certaines télé intègrent ça de base, sinon il faut acheter un petit dongle qui se branche en hdmi).



&nbsp;

Le 06/02/2016 à 20h 20







Jarodd a écrit :



Là tu m’intéresses (Ubuntu Phone). Tu en as un ? Je ne trouve que peu de retours, difficile de se faire un avis tranché sur cet OS. Mais je ne suis pas pressé, j’attends un modèle 4G.





https://forum.ubuntu-fr.org/viewforum.php?id=131

Il y a pas mal de retour ici.



Contrairement à Mozilla et Google, Canonical a eu l’intelligence de se charger de tout concernant le software.

Android est développé par Google de son côté sur leurs modèles à eux puis laissent les constructeurs se débrouiller avec AOSP. Du-coup ils doivent aux mêmes adapter les pilotes, etc …

Mozilla a visiblement fait la même erreur avec FFOS puisque certains smartphones FFOS n’ont jamais été mit à jour vers FFOS 2.0

Canonical développent Ubuntu Touch pour TOUS les modèles existant et publient les mises à jour pour TOUS les modèles en même temps (bon je reconnais que Google aurait du mal à faire de même vu le nombre de smartphone Android existant).



Actuellement c’est une OTA toutes les 6 semaines (et ça va surement rester comme ça). Donc&nbsp; c’est mit à jour régulièrement.

Par contre à l’heure actuelle le seul smartphone 4G est le meizu MX4 qui n’est malheureusement plus disponible à la vente (Meizu font des prix plus agressif que BQ, mais ont une politique étrange pas vraiment défendable. J’ai un MX4 sous Android malheureusement impossible d’installer Ubuntu Touch car le bootloader est verrouillé, ce qui n’est pas le cas des BQ)


Le 12/01/2016 à 15h 36







XMalek a écrit :



VU qu’il faut changer les programmes pour que ça soit exploité correctement je le redis 0 changements.







&nbsp;Tu confonds HBM et HSA. La mémoire HBM n’a besoin d’aucune modification au niveau du programme.









YohAsAkUrA a écrit :



oui mais Nvidia ne produit plus de 980 si j’ai bien compris? elle a été remplacée par la 970 et la 980ti.





Nvidia produit toujours des 980, la 970 utilise le même gpu que la 980 mais c’est une version bridé.

GTX950 &lt; GTX960 &lt; GTX970 &lt; GTX980 &lt; GTX980ti.

La gamme est compréhensible non ?


Le 12/01/2016 à 12h 18

Radeon HD 7770 + Ubuntu 15.10 tout est stable et performant, que ce soit avec le pilote libre ou le pilote AMD crimson. Les performances sont très proche, même proche de celle sous Windows. Donc au final on peut même rester sur le pilote libre.

Avant de racheter cette 7770 d’occasion j’avais une vieille GT9600, le pilote libre fonctionnait bien sauf avec KDEnLive (le pilote nouveau faisait des erreurs et KDEnLive crashait). Et avec le pilote propriétaire pas de soucis avec KDEnLive mais c’était Open Broadcast Software qui avait des problèmes, le dash d’Ubuntu clignotait dans la vidéo. Du-coup je devais changer entre les deux pilotes à chaque fois x)



Donc plutôt satisfait des pilotes AMD actuelles, je suis juste déçu que le panneau de configuration AMD n’est pas été refait sous Linux. Car franchement celui sous Windows envoie du lourd !