votre avatar

ErGo_404

est avec nous depuis le 16 mai 2005 ❤️

3044 commentaires

Le 09/11/2018 à 10h 09

+1 j’ai quand même le sentiment que le ratio coût/commodité est le même en ville et en campagne, un peu par principe de la loi du marché. Je ne pense pas qu’on doive opposer tout le monde, pour moi tout le monde devrait avoir la fibre si possible 10Gbps.

Mais maintenant on vit dans un monde où on ne peut pas couvrir tout le monde en même temps, et même si c’est pas équitable de commencer par les villes, ça aurait encore moins de sens de commencer par ceux pour qui c’est le plus compliqué puisque ça retarderait tout le monde.

Le 09/11/2018 à 10h 04

Puisque tu as plus de distance à parcourir par client en zone rurale, on peut en parler en effet.

C’est assez simple, si les fournisseurs commencent par les villes c’est parce que c’est le plus facile, les fourreaux sont présents sous les trottoirs, pour un bâtiment raccordé on touche potentiellement une dizaine de logements, c’est quand même nettement plus simple qu’en ville/village peu dense où il faut se taper un raccordement par maison.

Le 09/11/2018 à 07h 50

Seul un petit nombre de boîtes … pas si sûr.

Augmenter largement le débit ça permet d’ouvrir de nouveaux usages auxquels tu ne penses visiblement pas. Quand ta connexion internet est aussi rapide que ton réseau local, peu importe si tu héberges tes données chez toi ou sur un serveur distant.

On pourrait par exemple multiplier les postes type shadow, c’est à dire avec une machine pourrave qui ne fait que de l’affichage local et le serveur qui gère l’OS et les performances. Ca permettrait de renouveler bien moins souvent le matériel local et de mutualiser côté serveur.

Cet usage typiquement n’est pas possible dans de bonnes conditions dans une boîte de 30 personnes avec une connexion 100 ou 300 Mbps. Même avec 1Gbps ça risque d’être short.



Après que cet usage te concerne ou que cet exemple soit pertinent, peu importe, ça montre bien qu’aujourd’hui il n’y a pas le besoin en débit car l’offre n’existe pas. Mais le jour où elle sera possible, les possibilités qui vont avec vont exploser.

Le 09/11/2018 à 07h 43

Pour l’instant. Mais les box à 10Gbps peuvent arriver plus vite que tu ne le penses, et par ailleurs de nos jours il n’y a plus qu’un seul appareil sur le réseau, mais parfois une dizaine (chez les particuliers).

Et chez les pros, plusieurs dizaines voire centaine qui ont parfois tous besoin de débit au même moment.



Avoir du 10Gbps ça veut pas dire que tu les utilises pleinement en continu, ça veut surtout dire qu’au pic de consommation de ton logement/bureau la connexion tiendra toujours la charge.

Le 09/11/2018 à 07h 41

Ben ouais mais 30% de conversion en ville c’est toujours plus de clients que 90% en village.

Le 08/11/2018 à 15h 40

Non ce n’est pas si simple. Déjà, il faut que les infras le gèrent. Ensuite, même si ce n’est que de la lumière, d’un côté comme de l’autre tu as des émetteurs/récepteurs qui sont limités en fréquence de réception, donc il faut tout le matériel qui va bien des deux côtés.

Le 08/11/2018 à 15h 38

De l’autohébergement de quoi ? J’héberge mes photos chez moi que je partage à distance, c’est pas du luxe d’avoir une connexion de plus de 100Mbps pour partager un album complet à toute la famille.

Sans compter que ça s’additionne à ma conso habituelle, films en streaming, jeu, etc.

Je ne dis pas que je ne pourrais pas avoir une connexion à 100Mbps, c’est déjà top pour beaucoup d’usages, mais avoir plus ouvre de nouvelles possibilités…

Le 08/11/2018 à 15h 32

On a des bases de données de plusieurs To donc même avec 10Gbps (soit ~1,1Go/s) ça prendrait plus d’une heure de faire un snapshot, donc si, je pense qu’on peut dire que ça nous serait utile pour ne pas être constamment en train de solliciter la BDD pour en faire des backups.

Quand à faire de la visio, c’est sûr, le 1Gbps nous suffirait déjà pendant encore un moment pour ce type d’usages, mais c’est l’addition de tout ça + la taille croissante de la boîte qui me fait penser qu’on gagnerait quand même à avoir plus.

Mais dans tous les cas je comprends pas la mentalité de refuser en bloc le 10Gbps à partir du moment où ça ne représente pas un surcoût monumental, autant déployer directement cette techno y compris dans les zones qui n’ont pas encore le 1Gbps.

Le 08/11/2018 à 14h 01

Mais quitte à installer la fibre, autant la prévoir à 10Gbps pour éviter de devoir refaire un déploiement grande échelle dans 10 ans, non ? Enfin c’est une question de coût bien sûr mais vu que l’effort humain (le plus cher) est le même entre les deux types de fibres…

Le 08/11/2018 à 14h 00

D’un autre côté les codecs utilisés en Bluray ne sont déjà plus les plus optimaux, donc on peut quand même avoir une aussi bonne qualité en ayant un débit plus faible.

Le 08/11/2018 à 13h 58

Ben non, Orange à tord. C’est oublier qu’il y a de très nombreuses entreprises sur un réseau FTTH, le FTTO coûte très cher. Et pour les entreprises ça a énormément de sens d’avoir plus que 1Gbps.

Chez nous par exemple on veut généraliser la visio conf, on est encore en ADSL malheureusement, et ça ne passe pas. On voudrait aussi faire des backups de nos BDD qui sont en lignes et vu les débits, pareil, on oublie. Avec la fibre 1Gbps on serait déjà probablement à l’aise, mais certains usages (notamment le backup BDD) s’ouvriraient bien plus largement si on avait accès au 10Gbps.




Le 05/11/2018 à 12h 45

Si on en est à 100x moins que le cerveau humain, dans 10 ans on aura le cerveau humain, dans 30 ans on l’aura dans un appareil de la taille d’un smartphone.

Le 05/11/2018 à 09h 06

C’est mentionné dans l’article. Perso j’ai eu une mauvaise expérience avec eux il y a deux ans, mais ça a peut-être (probablement ?) évolué depuis.

Le 05/11/2018 à 09h 06

C’est l’équivalent d’OverTheBox du coup. Mais avec de la config à se taper soi-même, donc une chance pour que ça soit pas terriblement stable si on ne s’y connait pas un peu.



Quand j’avais pris OverTheBox il y a deux ans, c’était vraiment instable aussi. J’espère que ça a évolué et je serais tenté de reprendre l’abonnement un mois pour tester (j’ai toujours leur box du coup).

Le 31/10/2018 à 12h 42

Je me demande quel bruit feront les moteurs. Je trouve les bruits de moteurs de voitures électriques bien plus faibles et plus agréables. Je me demande à quel point ça sera également le cas sur un avion, car je n’imagine pas non plus que le bruit sera nul.

Le 30/10/2018 à 15h 27

Surtout qu’il y a d’autres moyens, par exemple, ils pourraient détecter où est ouverte la session d’un élève, c’est beaucoup moins intrusif et tout aussi efficace. Ou alors, les élèves s’envoient des sms “à l’ancienne”, ça fait moins techno mais c’est beaucoup plus humain.

Le 27/10/2018 à 18h 55

C’est cher mais bon quand on en a l’usage ça peut être pratique. Moi ce que j’aime le plus dans l’article c’est la solution de chiffrement avec code pin, c’est une feature que j’aimerais bien avoir sur des clés USB sans devoir installer de logiciel particulier. Je crois que ça coûte cher, cependant.

Le 22/10/2018 à 15h 14

Merci pour les outils multi isos. Ca faisait longtemps que je voulais me faire une grosse clé “de secours” sachant que j’utilise Windows, OS X et Mint et que ça m’ennuie d’avoir besoin de 3 clés différentes.

Le 22/10/2018 à 09h 30

Comme pour la traçabilité des armes qui ont tiré une balle, il va falloir que la police puisse imprimer une pièce spécifique sur une imprimante saisie pour valider s’il s’agit de celle qui a servi à imprimer l’arme.

Sauf que sur une imprimante, tout ou presque se change. Je peux imprimer une pièce, remplacer un moteur ou la buse, et je suis sûr que la pièce suivante sera différente. S’il s’agit de préméditer un meurtre, je peux aussi détruire l’imprimante en question.



Bref, on a connu mieux comme traçabilité.

Le 19/10/2018 à 17h 44

Si les solutions OVH sont bidouillées et sont instables, elles sont potentiellement aussi mal protégées, et ça c’est assez compliqué de le prouver (ou de prouver l’inverse), et ça rend les données tout aussi accessibles par la NSA.

Il y a une question de sensibilité des données à stocker, évidemment l’idéal est de stocker en France chez un Français. Mais toutes les données ne sont pas sensibles et rien ne prouve non plus qu’on peut avoir confiance en OVH ou en tout autre hébergeur français. Le scandale Super Micro montre que tout hébergeur est potentiellement vulnérable.

Le 18/10/2018 à 22h 12

Non ce n’est plus une startup mais c’est exactement là ou je voulais en venir. Tout comme les business angels de la silicon valley qui misent sur des dizaines d’idées de merde en espérant que l’une d’en elle perce, AWS, Google et MS proposent des solutions efficaces et pas chères à toutes les startups pour espérer garder celles qui percent et qui vont rapporter (très) gros.



L’administration française et les grosses boîtes c’est une chose mais la “garantie des données” je suis pas sûr que tout le monde se pose la question. Amazon héberge en France aussi, et ils sont soumis à la même loi qu’OVH. Dans mon job on traite des données assez sensibles et rien ne nous interdit de stocker ça chez Amazon du moment que le datacenter est en France.

Alors pourquoi on irait se faire chier à gérer les problèmes d’OVH si on peut avoir plus fiable et surtout plus compatible à un coût à peine plus élevé ?

Le 18/10/2018 à 16h 10

Non ils ne sont pas morts et comme je l’ai dit ils ont quand même l’argument du prix.

Mais du coup de fait les services modernes vont se tourner vers la concurrence et ils ne garderont que les vieux machins.



Quand à ce que tu dis … c’est vrai pour la majorité des startups, mais dès lors que l’une d’entre elle pousse et fonctionne, elle peut rapporter très gros. Je pense qu’Amazon est ravi d’héberger Netflix par exemple…

Le 18/10/2018 à 15h 57

Ouais mais du coup les nouvelles startups qui ont besoin d’aller vite (sans pour autant faire de la mauvaise qualité) vont directement aller chez Amazon ou Google, d’autant qu’il y a un nombre incalculables d’outils prévus pour.

La politique de data ou de ne pas se laisser enfermer chez un hébergeur c’est une blague. Ils utilisent des solutions open source mais d’une part ils les modifient (donc il faut parfois des devs customisés) mais en plus personne d’autre ne les utilise, du coup pour changer d’hébergeur … on doit quand même se taper des modifications dans les outils.

Le 18/10/2018 à 15h 53

Franchement ils sont à la ramasse. Certes ils ont les prix pour eux, mais la qualité de service n’a rien à voir ni même les options.

Sur leurs services cloud on a des temps de réponse du SAV de parfois plusieurs jours. Quand on agrandit un disque dur de base de donnée en prod et qu’on ne peut plus redémarrer la machine à cause d’eux, ça fout les boules. Autant chez nous on peut se permettre 1h d’interruption mais pas 3 jours …

Le 18/10/2018 à 15h 51

<img data-src=" />



Idem, j’ai juste fini par décocher la case “me garder connecté”, et j’enregistre le mdp dans le navigateur, comme ça, plus de problèmes.

Le 18/10/2018 à 20h 22

Ils utilisent des solutions quasi custom, notamment pour la téléphonie mobile c’est Ercom qui fournit ça (une PME française spécialisée). J’imagine que pour la visio conf c’est pareil. C’est probablement bien plus cher que les standards du marché.

Le 17/10/2018 à 09h 21

Sinon à l’étranger les gros datacenter font tout pour être autonomes en énergie, en produisant leur propre énergie.

Cette mesure ne va pas inciter les datacenter français à faire attention à leur consommation…

Le 10/10/2018 à 12h 31

Abandon du Qi ? Depuis quand ? Tous les derniers modèles haut de gamme chez Apple et Samsung l’intègrent.

Le 10/10/2018 à 12h 30

Reste que ça fait une machine à 1600 balles qui se coupe de l’usage de la grosse majorité des apps (Windows ou OS X). Et les apps Android sont pas spécialement adaptées au format tablette, même si c’est évidemment toujours bon à prendre.

Le 09/10/2018 à 13h 42

Alors je trouve ça idiot de soulever le point sur ces appareils alors qu’on a exactement le même sujet depuis des années sur les TVs “connectées” qui font des propositions de programmes, sur le voitures avec GPS qui ont des base de points d’intérêt, et sur probablement de nombreux autres appareils dont on ne peut pas modifier le logiciel.

Le 09/10/2018 à 07h 00

Non, mais pour ce qui est de la consommation des services de musique, tu es bien libre d’utiliser les applications que tu veux.



De la même façon que sur un iPhone, tu n’installes pas Android et vice-versa.

Le 09/10/2018 à 06h 59

Il est taxé sur la TVA, mais pas pour les taxes qu’on retrouve sur la mémoire de nos téléphones par exemple. Et tu penses bien que ça leur fait couler une petite larme, chez Hadopi.

Le 09/10/2018 à 13h 40

Pas forcément, il y a une feature majeure de cette mise à jour qui a été reportée à plus tard (Windows “Sets”).

Le 09/10/2018 à 13h 39

Non c’est vrai mais je suis persuadé que tu trouveras de nombreuses personnes qui ont eu par le passé des difficultés d’accès à des dossiers home chiffrés ou que la mise à jour du noyau a planté le démarrage de l’ordinateur ou d’autres erreurs plus ou moins critiques et pénibles à remettre en place pour un débutant et même pour une personne expérimentée qui n’a pas que ça a faire.

Le point essentiel quel que soit l’OS c’est de faire une sauvegarde avant la mise à jour, c’est tout ce qui compte.

Le 09/10/2018 à 10h 51

<img data-src=" />



Comme s’il n’y avait jamais de problèmes lors des mises à jour d’Ubuntu, Suse, ou Mint.

Comme pour tous les OS ce qui compte c’est de s’être préparé à la mise à jour et d’avoir un backup des données. Et entre nous le mécanisme de rollback des mises à jour de Windows est bien plus simple à mettre en place et à utiliser que ce que tu trouves sous de nombreuses distributions Linux.

Le 09/10/2018 à 10h 48

Dans les méthodes de dev modernes, on peut fixer une date de sortie mais n’inclure dans le patch que ce qui est prêt et a été testé correctement.

Comme ça pas (trop) de pression et en même temps les clients peuvent planifier leurs déploiements et leurs propres tests.

Le 09/10/2018 à 09h 41

Avec les anciennes versions aussi il y a des bugs.

Globalement tu peux rester sur la règle simple de ne pas upgrader le Jour 1 quand il y a une mise à jour majeure de l’OS, et de toujours garder un backup de tes données.

Pour le reste, franchement, ces bugs ne touchent pas une majorité des gens malgré la couverture médiatique.

Il y en a beaucoup comme moi qui font les mises à jour le jour J à chaque fois et chez qui ça se passe très bien et ce depuis le début de Windows 10.

Le 09/10/2018 à 09h 39

Je me demandais pourquoi mon HP se mettait à ventiler comme un porc sur youtube alors que le décodage ne devrait pas être trop coûteux sur une machine aussi récente, c’est possible que ça soit ça du coup. Après recherche sur google d’autres se plaignent de distorsions introduites par le pilote, du coup je testerai ça.



<img data-src=" />

Le 09/10/2018 à 07h 04

<img data-src=" />











<img data-src=" />









<img data-src=" />







<img data-src=" />

Le 09/10/2018 à 07h 03

Que font les pilotes Bang & Olufsen ? Je suis intrigué car je les ai laissés depuis le début et je ne constate pas de soucis particuliers, mais s’ils surconsomment ça m’intéresserait de gagner de l’autonomie.

Le 09/10/2018 à 13h 37

Ne peut-on pas simplement admettre que la vue aérienne est une donnée quasi publique, et concevoir les prisons pour que même en ayant cette information, l’extraction et la fuite soient compliquées ?

Le 04/10/2018 à 12h 42

A surface égale et contrairement à ce que veulent faire croire certains constructeurs, il vaut mieux en effet avoir moins de pixels plutôt que plus de pixels et un traitement logiciel.

C’est d’autant plus vrai quand le nombre de pixels n’est pas un multiple précis de la définition des images qu’on veut à la fin.

Le 04/10/2018 à 12h 20

C’est une évolution mais pas une innovation. La surfacebook avec son système de carte graphique embarquée dans le clavier et tout le reste dans l’écran, ça c’était une innovation, car ça justifiait totalement l’usage tablette pure ou PC complet.

Le 04/10/2018 à 12h 19

Je sais pas si c’est le cas ici, mais ils distinguent souvent la capacité à faire des photos (8Mpx) de la définition en mode vidéo (rarement plus que le Full HD).

Le 03/10/2018 à 09h 28

C’est pas une innovation de mettre un apu AMD.



Je ne vois pas pourquoi chercher toujours la course à l’innovation. Ces ordis ont :

* Un format spécifique d’écran, écran qui est d’une excellente qualité par ailleurs et qui est tactile

* Une conversion tablette/PC bien ficelée

* Une qualité de finition irréprochable



C’est déjà suffisament différenciant je trouve pour un PC portable. Pour rappel c’est quand même MS qui a poussé à l’intégration de stylets hyper précis et du surface dial, pour moi ce sont déjà des innovations majeures même si ne sert clairement pas à tout le monde.

Le 03/10/2018 à 09h 26

Le problème c’est de définir la “config”. Si tu ne parles que des specs de processeur, ram, SSD, tu peux probablement trouver beaucoup moins cher ailleurs.

Si tu inclus l’écran dans la config, c’est déjà plus chaud. Si tu inclus l’intégration, la finition, et le design, il ne reste vraiment plus beaucoup de modèles à regarder, et ils sont tous dans des gammes de prix similaires.

Le 04/10/2018 à 12h 17

Tout dépend de ce que tu as installé sur ton Linux. Parce que bon, Linux, ça veut tout et rien dire, tu peux avoir une distribution complète de 15Mo et une autre de 3Go, les deux mettront pas le même temps à charger.

Tout dépend aussi de la position de l’OS sur le disque, même si ça joue surement moins.

Le 03/10/2018 à 09h 30

Ben non, la faiblesse est dans le matériel. Un OS sur un disque dur en 2018, c’est poussif quand même.

Sur SSD (c’est à dire une bonne partie des machines actuelles), l’OS peut démarrer en 23 secondes, on ne lui demande pas plus.

Le 28/09/2018 à 11h 34

C’est pas le même usage non plus avec une tour.

L’évolution n’est plus aussi frappante qu’avant c’est plutôt vrai, mais ça n’enlève rien aux qualités des nouveaux PCs qui sont quand même plus autonomes et globalement mieux fournis qu’avant (lecteurs d’empreinte, écran tactile, etc).