votre avatar

ErGo_404

est avec nous depuis le 16 mai 2005 ❤️

3044 commentaires

Le 15/03/2017 à 10h 41

La place, la conso totale, le prix total aussi, le côté pratique, le dock. Bref les deux solutions n’ont rien à voir.

Le 15/03/2017 à 10h 40

Ca l’est moyennant bidouille (relativement simple si j’ai bien compris). Et visiblement le support s’améliore avec les nouvelles versions d’OS X.

Le 15/03/2017 à 10h 23

Ben c’est toujours un peu le cercle vicieux au départ. C’est pour ça que les marques vont devoir faire un effort pour que ça soit abordable, et c’est là que la concurrence entre en jeu. Au bout de quelques années, les produits seront plus matures et la techno coûtera moins cher à fabriquer, donc les prix baisseront d’eux-même si l’intérêt est réellement là.

Pour l’instant ça reste un peu des démos techniques.

Le 15/03/2017 à 10h 21

C’est pas plutôt qu’il peut alimenter un portable en TB3 jusqu’à 60W ?

L’alim interne est forcément plus puissante.

Le 15/03/2017 à 10h 15

Tu peux l’attendre longtemps. Une alim similaire à celle qui est intégrée c’est déjà plus de 100€. A cela tu dois rajouter le dock et la licence TB3 (qui coûte cher j’ai l’impression), ainsi que le matériel d’une manière générale (finalement c’est pas si loin d’un boitier de PC classique en termes de matériaux). Je pense que 250€ serait un prix plus juste. C’est pas le genre de boitier que tu rachètes à chaque changement de carte graphique ou de portable non plus.

Le 15/03/2017 à 10h 14

Le public se concentre toujours sur le prix par rapport au matériel, mais il n’y a pas que ça. Ce boîtier ne sera pas vendu en masse et n’a pas beaucoup de concurrence, c’est pour ça qu’il coûte un bras.

Il faudra probablement une ou deux générations (et pas mal de marketing) pour que ça devienne abordable.

Le 15/03/2017 à 10h 12

Si, il y en a. En gros, ça dépend si tu affiches l’image sur ton écran d’ordi portable ou sur un écran externe.

Si tu affiches sur ton ordi portable, le fait que l’image revienne dans l’autre sens pompe du débit et diminue les performances.

Si tu affiches sur ton ordi externe, globalement tu perds 10/20fps selon les jeux, par rapport à un PC fixe avec la même CG. Ca vient du débit thunderbolt 3, mais aussi du fait que les processeurs portables sont moins performants.



Dans tous les cas faut pas expérer des performances de malade, même avec une super carte graphique. Mais c’est probablement suffisant pour beaucoup de jeux et de situations.

Le 15/03/2017 à 06h 32

Free, déploiement fibre ? Ils sont déployés où exactement ? Sur Paris ils n’ont jamais dépassé la petite couronne (et encore). Le seul opérateur qui a l’air de déployer réellement la fibre c’est Orange en banlieue. Bouygues semble avoir laché l’affaire et SFR continue de refourguer leur merde de câble.

Le 15/03/2017 à 06h 30

Si <img data-src=" />

Le 14/03/2017 à 13h 58

Aujourd’hui ils ne facturent plus 3x le prix de Free et s’en sortent bien.

Le 14/03/2017 à 13h 57

C’est parce qu’on s’en fout. Quand tu payes un service tu attends un service, c’est au fournisseur de service de se démerder pour les problèmes techniques et financiers.

Le 14/03/2017 à 08h 19

Sur le court terme c’est vrai que ça ne fera pas bouger Orange, SFR et Bouygues, mais c’est plus sur le long terme qu’ils vont finir par y passer aussi, pour s’aligner.



Au final les autres font peut-être la gueule mais leurs forfaits sont souvent plus intéressants pour ceux qui résident en France. La 4G est plus rapide et les offres sont souvent bradées et donc moins chères.

Le 13/03/2017 à 15h 44

Chez moi la fibre c’est 500Mbps, largement ce qu’il faut pour streamer de la bonne qualité bien encodée en 4K 120fps…

Le 13/03/2017 à 10h 58

En ADSL peut-être, mais en fibre il y a 0 soucis.

Le 13/03/2017 à 10h 58

L’autre cas d’usage intéressant (avec l’offre Nvidia en tous cas), c’est quand tu ne joues pas beaucoup et que tu peux payer à l’usage.

Le 13/03/2017 à 10h 56

Ca dépend. Tu as des services de location, ou tu as un catalogue de jeux (dépassés, malheureusement) pour un abonnement, ou bien tu as un accès à une machine avec un windows, et tu installes ce que tu veux dessus, auquel cas il faut payer chaque jeu.

Le 13/03/2017 à 10h 55

L’upgrade hardware EST “gratuit”, périodiquement ils prévoient d’améliorer les machines pour chaque pallier de tarif.



Et à 1000€ t’as pas un PC de jeu haut de gamme, t’as du moyenne gamme. Et si tu veux garder de bonnes perfs sur les derniers jeux au fil du temps, il faut changer au moins la CG tous les 34 ans.



Je pense que c’est encore juste, c’est pas totalement rentable le cloud gaming, mais ça n’en est pas loin.

Et puis surtout ça a des avantages et inconvénients qu’il faut bien soupeser avant d’y passer.

Le 13/03/2017 à 10h 28

Très bien. Ca reste pas donné donné, mais si les performances sont là, c’est plus avantageux que l’achat d’un PC haut de gamme + renouvellement régulier.

Le 07/03/2017 à 15h 04

Je fais tourner un service complet dessus, avec 4 serveurs (cloud public) dont un d’une BDD gigantesque. On n’a aucun problème avec OVH. Leur interface n’est pas toujours claire, mais leur service client est assez réactif. Ils sortent régulièrement de nouvelles offres adaptées à certains domaines et ils ont tout à fait l’air de maitriser leur métier, et leurs serveurs sont pas chers du tout.

Le 07/03/2017 à 11h 25

Pourquoi ne font-ils pas leur propre modèle de carte mère, en plus du processeur ? Ils fournissent probablement déjà un design de référence, et ils pourraient faire un pack processeur + carte mère à prix très serré pour concurrencer encore plus Intel.

Le 07/03/2017 à 11h 24

Surtout sur une nouvelle architecture ou on risque de trouver beaucoup de bugs parfois gênants, et sur un produit où d’une année à l’autre les changements sont rarement conséquents.


Le 07/03/2017 à 09h 20

On peut raisonnablement supposer que les progrès en performances de la v.x.1 ne sont pas retirés lors de la sortie de la v.x.2

Et pour la suite du message +1, c’est crétin de télécharger 300+Mo à chaque mise à jour des drivers.

Le 07/03/2017 à 06h 36

Oui mais a des usages réservés aux entreprises, comme les bandes magnétiques.

Là je vois un usage en plus, on peut transporter beaucoup d’information de manière quasi indétectable. Il y a des gouvernements qui doivent se réjouir en ce moment.

Le 06/03/2017 à 17h 05

Si on se donne la liberté d’utiliser un moyen relativement peu fiable et très lent en lecture/écriture, n’y a-t-il pas beaucoup d’autres moyens que l’ADN pour stocker de très très grandes quantité d’information sur de petits espaces ?



L’avantage évident de l’ADN c’est que c’est sa fonction première et que ça apparaît comme la solution évidente, mais il y en a peut-être d’autres qui seraient naturellement plus simples à utiliser.

Le 03/03/2017 à 13h 24

Non non, c’est le reproche principal d’engadget sur cette tablette

Le 03/03/2017 à 13h 23

Ca dépend essentiellement de la densité du produit en fait. La manette de la wii semblait de bonne qualité parce qu’elle était relativement lourde pour sa taille. Idem pour la nouvelle console, alors que la “tablette” de la Wii U était très grosse par rapport à son poids et paraissait donc merdique niveau qualité.

Le 01/03/2017 à 15h 41

Ce n’est pas par défaut sur Ubuntu, mais tu peux l’activer aussi. Du coup, je m’incline <img data-src=" />

Le 01/03/2017 à 12h 59

Je comprends bien, mais :




  • Perso je ne m’amuse pas à réinstaller ma distrib tous les jours, et je ne vois pas ce qui me pousserait à le faire. Il “suffit” de ne pas s’aventurer dans des procédures périlleuses ;-)

  • Même si tu le fais (ce que je comprends aussi !), tu peux toujours remonter ton disque depuis un live cd et récupérer tes données.



    Dans l’absolu je comprends bien le besoin dans certains cas spécifiques, mais pour Mr tout le monde le paramètre par défaut est largement suffisant.

Le 01/03/2017 à 12h 57

Pour la souplesse de l’utilisation de ton disque. Il n’est pas toujours possible de prévoir à l’avance de combien de place tu auras besoin dans ton / ou dans ton /home.

Le 01/03/2017 à 10h 24

Je comprends bien mais pour moi ça reste un besoin un peu spécifique.

Sur une machine “de prod” tu ne bidouilles pas les disques tous les jours, et même si tu te foires tu as toujours moyen de récupérer ton installation.

Dans ce cas là c’est sûr que c’est plus simple avec un /home séparé, mais de là à vouloir que ça soit une option par défaut…

Le 01/03/2017 à 09h 17

Pour le premier point, oui, Knoppix a fait tout cela avant Ubuntu, mais je ne pense pas que ça soit réellement ça qui ait poussé à l’adoption de Linux. Si aujourd’hui tu trouves du Linux sur 0.5% des desktop (chiffre sorti du chapeau hein), Knoppix approchait peut être du 0.01.

Le principe du Live CD ou encore d’une interface à peu près cohérente ont été deux choses absolument nécessaires pour qu’une distribution arrive à peu près à percer, et on est bien d’accord que ce n’est pas Ubuntu qui a apporté ces avancées majeures. Mais la démocratisation, c’est Ubuntu tout seul qui l’a fait, à force de coups de com et d’opérations de livraison gratuite de CD notamment.





  1. Le backup d’un dossier se passe très bien, le fait que ça soit sur une partition n’y change pas grand chose. Au contraire, c’est beaucoup plus flexible pour une question de taille (comment savoir à l’avance combien tu vas avoir besoin dans ton / et dans ton /home ?).

    D’autre part pour l’usure du disque ça fait des années qu’on est dans l’ère du SSD, où les données sont un peu réparties aléatoirement dans la mémoire et je ne suis pas bien sûr que faire deux partitions change quoi que ce soit à l’usure des cellules, d’autant que ce problème spécifique est géré au niveau du SSD lui-même et pas de l’OS.

    Bref, tu as raison en grande partie, mais dans certaines conditions seulement et cela apporte aussi des points négatifs.

Le 01/03/2017 à 06h 54

A quoi ça sert de séparer / et /home ?

Pour le backup, ça ne change rien.

Pour les permissions, ça ne change rien.

Pour le risque de panne, ça ne change rien si ton /home est sur le même disque.

Alors du coup, concrètement, ça apporte quoi ?

Le 01/03/2017 à 06h 50

Le modèle des distributions Linux est le principal frein à cela. C’est déjà assez difficile comme ça de penser un système cohérent de A à Z (Apple et Google y arrivent très bien, Microsoft peine mais s’en sort convenablement), mais il faut en plus avoir la main sur l’intégralité des logiciels, ce qui n’est pas le cas dans une distribution classique.

Le 01/03/2017 à 06h 47

La première tentative, c’était Knoppix, mais ce n’était pas le premier pas vers la démocratisation. C’est bel et bien Ubuntu qui a “démocratisé” Linux. Mais en fait, c’est faux. Linux sur desktop n’est toujours pas démocratisé.

C’est Android qui a démocratisé Linux en tant qu’OS grand public auprès des foules.

Le 01/03/2017 à 06h 41

Ben oui mais du coup ça revient à utiliser l’alphabet classique et donc à prêter à confusion dans l’ordre des releases.



Perso je trouverais ça plus simple qu’ils reviennent à la lettre A épicétou.

Le 28/02/2017 à 18h 20

+1

Et du coup c’est encore pire avec mint (que j’utilise pourtant au boulot), qui se base sur les LTS d’Ubuntu et qui a parfois 23 ans de retard sur les paquets.

Le 28/02/2017 à 18h 19

Il est probable que beaucoup de gens se méfieront d’un produit avec un nom en russe. Et puis ce n’est de toutes façons pas pratique pour tous les gens occidentaux quand il va falloir faire des recherches sur le sujet.

Le 01/03/2017 à 12h 55

Oui c’est parfaitement légal. Le vol en question n’est pas subventionné par la NASA, c’est le programme spatial qui l’est.

C’est comme si tu interdisais au gouvernement de financer une partie des DVPs d’une société privée qui permettrait à ladite société de faire par la suite de l’argent sur ce développement. C’est tout le principe de la subvention publique, aider les entreprises dans leurs développements pour qu’elles puissent ensuite voler de leurs propres ailes.

Le 01/03/2017 à 07h 45

Et ce n’est pas encore prouvé. Attendons la sortie avant de s’exciter pour rien.

Le 28/02/2017 à 18h 14

Certes, mais tant qu’aucun éditeur de store ne fera la demande, il paraît raisonnable de penser qu’il n’y a pas de raison d’en promouvoir d’autres.

Le plus gros store hors Play Store, c’est probablement le store d’Amazon et leur situation semble bien leur convenir.

Le 28/02/2017 à 13h 05

Aucune bidouille, il suffit d’activer une option présente sur tous les téléphones dans les paramètres. Ce n’est pas extrêmement pratique, mais ce n’est absolument pas bloqué.



Sur iOS, c’est bloqué, mais comme Apple n’est pas en situation de monopole…

Le 28/02/2017 à 09h 54

Peu probable que les autorités américaines laissent passer une telle pratique anti-concurrentielle.

Le 28/02/2017 à 09h 53

Les conditions d’utilisation, principalement. Les devs qui publient sur le store se plient aux règles de MS.

Mais on est bien d’accord, en pratique s’ils activent ce blocage par défaut, ça sera un abus de position dominante, ce qui n’est pas du tout le cas sur OS X.

Le 28/02/2017 à 09h 51

Au contraire. Les applis du store sont relativement fiables et bien isolées les unes des autres, il n’y a pas trop de risques à les installer du point de vue du système.

Le 27/02/2017 à 08h 46

Quand on a autant de thunes qu’Intel, une grande claque, c’est le moment où tu investis massivement dans la R&D pour redevenir compétitif. C’est le moment où tu recrutes, pas où tu licencies…

Le 27/02/2017 à 07h 52

Pfiou. Aussi pratique soit cet outil, il serait peut-être temps d’un petit refresh d’interface.

Surtout que leur UI est vraiment simple, ça ne leur prendrait sûrement pas longtemps.

Le 25/02/2017 à 18h 22

Perso je filerais pas mes empreintes à du matos chinois rebrandé.

Le 25/02/2017 à 17h 22

Il faut compiler de sacrément gros projets pour avoir besoin de toute cette puissance. En général c’est plutôt le disque qui pêche par ses temps d’accès.

Le 23/02/2017 à 16h 12

Après, la différence entre les prix AMD et Intel est relativement faible sur les plus petits modèles. C’est surtout sur le dernier modèle que l’écart se creuse nettement.

Le 23/02/2017 à 15h 24

Oui, mais là tu touches une question philosophique. C’est quoi “la vie” ?

Je pense que la communauté scientifique cherche avant tout ce qu’on trouve déjà ici. Probablement parce que c’est ce qu’on sait bien comprendre, et donc rechercher.