votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 17/01/2017 à 18h 05







IMPulsion a écrit :



Dit par un mec qui poste ça un Mardi à 15h, c’est pas vraiment l’exemple qu’on attend d’un mec qui bosse dur dans le privé !



Et tu vois, les fonctionnaires, ils branlent tellement rien que lorsqu’ils sont en grève, la France est bloquée ! Je sais pas pourquoi, mais j’ai comme l’impression que beaucoup de ‘privés’ peuvent faire grève sans que cela ne bloque quoi que ce soit d’autre que quelques euros sur leur feuille de paye !



PS : Eh non, je suis pas fonctionnaire, mais cette mentalité de merde commence à me sortir par les trous de nez !







En même temps, je crois qu’on se passerait bien du maquis administratif que le fonctionnarisme à engendré…



C’est un système qui crée de la complexité tout seul. Et cela n’apporte rien.



Je ne suis pas pour autant adepte de l’extrême inverse, c’est à dire le “tout privé” qui apporte aussi son lot d’excès.



Mais moins de fonctionnaires et plus de simplifications, ça ne ferait pas de mal à notre pays.



Par le passé, il y avait moins de fonctionnaires et l’on vivait mieux.



Le 17/01/2017 à 17h 58







tpeg5stan a écrit :



stagiaires, CDD, intermittents, temps partiel…<img data-src=" />







Même comme ça, rien n’est certain.



Employer des hommes dans les pays occidentaux est de moins en moins rentable.


Le 17/01/2017 à 17h 55







Olbatar a écrit :



Pour avoir été dans la métier c’est un peu plus compliqué que ça… Le robot ne charge pas le programme de prod’ tout seul, il ne vérifie pas non plus que les paramètres de fabrication soit respecté au lancement et quand il tombe en panne il se répare pas tout seul avec sa petite pince…



Beaucoup de fantasme autour de la robotisation…malheureusement ceux qui en parle le plus sont ceux qui s’y connaissent le moins!







Il n’y a pas de fantasme, il suffit de regarder les vidéo d’usines automatisées et des films sur les usines anciennes pour comprendre le nombre effarant de personnes que l’industrie automatisée a supprimée.



Qu’il reste encore des gens pour programmer les robots et les réparer ne doit pas masquer le fait qu’on supprime l’emploi d’un grand nombre de personnes non qualifiées pour les remplacer par une petite minorité très qualifiée.



Enfin, tu parle de panne, j’espère que tu plaisante. En dehors des bricolages malpropres, un automatisme industriel sérieusement conçu a un taux de panne très faible, particulièrement quand on le compare aux machines opérées par des humains.





Le 17/01/2017 à 17h 35

Etant spécialiste de l’informatique, je vois au contraire de très nombreux emplois que l’on peut détruire dans les années à venir.



Je dirais même que leurs chiffres prêtent à sourire quand on connait les révolutions sur le point d’arriver dans les secteurs de la vente, du bâtiment (impression volumique et assemblage robotisé) et du transport.



Quand aux soient disant emplois créés, visiblement ils ne voient pas l’énorme problème de société à venir. On va détruire en masse des emplois non qualifiés pour les remplacer par quelques emplois à très haute qualification.



Etant donné que tout le monde ne pourra pas devenir ingénieur, que deviendront ceux qui n’ont pas les capacités pour cela ?

Le 15/01/2017 à 21h 20







fabricer a écrit :



pendant un temps j’aî couru avec le tous premiers six de cannondale. un super velo, une vraie ferrari pour les coureurs puissants. certainement un des meilleurs rendements qui existaient a l.epoque si on suit ton raisonnement, sauf qu’il claquait au cul ( a la moindre bosse qui faisait tressauter le velo on pouvait entendre parfois un ‘clac’, aucun filtrage des chocs je me prenait toute l’energie en retour). et a basse vitesse sous 35 c’etait une enclume pour je ne sais quelle raison, il fallait que j’envoi une foutue montée de watts pour qu’il reparte comme une bombe. 



certains appelaient ce cadre une barre a mine :)



il est probable qu’un velo moins’rigide et au rendement sans doute plus faible aurait ete plus confortable, offrant des relances moins explosives mais filtrant la route. avec lequel des deux, si on prends en compte l’inconfort inherent au premier m’aurait donné mes meilleures chances? pas forcément le premier.







Tout à fait.



A une époque, beaucoup d’ingénieurs pensaient qu’il fallait faire le vélo le plus rigide possible dans tous les sens. Cela fonctionnait bien avec du CLM sur un parcours favorisant les cyclistes puissants qui roulent assis et avec un revêtement routier en bon état. Cela fonctionnait moins bien dans d’autres conditions.



Si la rigidité est un moyen technique évident pour obtenir du rendement selon le postulat que l’absence de déformation aboutirait à l’absence de perte(en pratique, c’est plus compliqué), le problème se complique dès lors qu’on admet une certaine souplesse parce que l’absorption d’énergie varie en fonction des matériaux et des façons de les agencer.



Outre le matériau, un fabricant peut jouer sur la géométrie et la répartition de la matière (sens des fibres pour le carbone, épaisseurs pour les alliages) pour moduler la rigidité selon les endroits pour donner plus ou moins de rigidité selon le sens de la force appliquée.



Comme dit notre amis plus haut, l’idéal dépends de beaucoup de facteurs dont la morphologie du cycliste, sa façon de pédaler, le revêtement routier, le terrain, le type d’épreuve, la durée.



Bref, c’est un art.


Le 15/01/2017 à 19h 41







fabricer a écrit :



si c’est discutable pour la bonne et simple raison qu’il n’y aucune valeur publiée par les fabricants permettant de comparer deux cadres entre eux ou deux paires de roues entre elles et donc de faire une sélection a priori.







Pour cela, encode faudrait qu’il existe une méthode qui fasse consensus pour déterminer le rendement d’un vélo.



Et puis les constructeurs n’ont certainement pas intérêt à se lancer dans ce genre de surenchère. D’autant plus que pour le consommateur, le rendement n’est pas le seul critère important.





il y a quelques personnes qui ont comparé quelques roues entre elles via des bancs de test mais ça reste un panel très limités. 



quand tu veux choisir un cadre ou des roues, et encore pas séparément car l’association des deux peut donner des résultats surprenants tu ne peux te fier qu’a tes sensations. je sais de quoi je parle j ai couru pendnant quelques années.





Tout à fait.



Le rapport entre le cycliste et sa machine est beaucoup plus complexe qu’on pourrait l’imaginer au premier abord sur une planche à dessin.



Au final, avoir le bon matériel, c’est un art.





la notion de rendement intéresse peut etre les ingenieurs mais pour les compétiteurs c’est le rendu in fine une fois sur la selle qui compte. un ensemble trés rigide se ressent souvent en inconfort pas seulement dans les cols. ce n’est donc pas un indicateur absolument discriminant. ça va dépendre du gabarit du coureur, de son poids, sa capacité à absorber les chocs. il ya des coureurs qui adorent les velos tres rigides d’autres qui détestent ça.





C’est clair.


Le 14/01/2017 à 20h 25







fabricer a écrit :



Hormis le facteur poids, tant qu’il y a un minimum de rigidité dans le cadre et les roues, un vélo de 2017 n’est pas vraiment beaucoup plus performant qu’un vélo de 2000 (un niveau pro peut obtenir des gains marginaux, mais il y a tellement d’autres facteur en course qu’il n’est pas sur que ça compte tant que ça, hors épreuves 100% chronos je précise)







Non, c’est beaucoup plus compliqué que ça.



Du fait de l’irrégularité du cycle de pédalage, trop de rigidité peut s’avérer nuisible, notamment en danseuse dans les cols.



Mais à ce niveau, on rentre dans des notions compliquées pour le profane.





Des coureurs pro se sont déjà amusé à tester un chrono sur des vélos d’il y a 15-20 ans, et le moins que l’on puisse dire c’est que la différence de temps réalisée n’était pas extra ordinaire, elle était bien la (notamment parce que depuis les vélos de compét ont énormément gagné en rigidité) mais rien d’époustouflant.





Bah faut par croire qu’il y a 20 ans c’était la préhistoire. A cette époque on savait déjà produire des cadres très performants.


Le 14/01/2017 à 20h 03







fabricer a écrit :



La configuration d’un vélo pour une épreuve de montagne n’est pas du tout la même que pour une épreuve de plaine.

Et même dans les grosses équipes, les coureurs n’ont pas 15 vélos à dispo (hors CLM). Il y a donc un cadre type, le reste (profil plaine ou montagne ) va essentiellement se jouer sur les roues.

 

Le rendement d’un vélo c’est lié à d’autres facteurs mais il faut savoir que hors notions aéro, le terme de rendement est une notion très discutable, je n’aime pas ce terme. La plupart du temps ce n’est pas mesurable donc on en est à discuter sur la base des sensations des uns et des autres et les marques l’utilisent pour en faire un argument marketing bien trop flou.







Non, ce n’est pas du tout une notion discutable. Contrairement aux idées reçues, c’est très significatif.



Le rendement se traduit entre autres par la capacité des matériaux utilisés dans les structures d’un vélo à transmettre un maximum d’énergie au lieu de la transformer en chaleur. Et c’est plus compliqué qu’on ne le pense car le cycle de pédalage est irrégulier (particulièrement en danseuse).



Ayant travaillé pour un fabricant a une époque, j’ai pu tester personnellement de nombreux cadres. Vous n’imagineriez pas les différences qu’on peut trouver entre deux cadres construits de manière différente à poids égal.



Quand aux équipes pro, il ne faut pas croire qu’ils sont tous très pointus en la matière. Les accords de sponsoring décident de beaucoup de choses en matière de choix de matériel.


Le 14/01/2017 à 18h 12







fabricer a écrit :



le but en montagne reste quand même d’avoir un ensemble cycliste+vélo le plus léger, quand la pente et les watts montent 1 kg de plus ou de moins ça joue beaucoup sur l’énergie dépensée. Donc c’est logique de faire des vélos le plus légers possible (dans les limites imposées par l’UCI) car l’ensemble bidons pleins + capteurs + compteur peuvent représenter un bon kilo en plus. Donc tout équipé il faut pouvoir se rapprocher au mieux de la limite de poids.







Beaucoup de cyclistes oublient qu’un vélo performant, ça ne se résume pas qu’a son poids. Le rendement est aussi une donnée primordiale. Et pour un cycliste amateur qui ne change pas de vélo à chaque saison, la fatigue du matériau qui conditionne le maintient du rendement dans le temps.



Une épreuve comme le tour de France qui se joue beaucoup dans les cols fait oublier que les routes ne sont pas faites que de sommets escarpés…







Le 14/01/2017 à 21h 46







127.0.0.1 a écrit :



Tu remarqueras que les USA et la Chine ont fédérés tous les états/territoires qui composent leur empire respectif sous un gouvernement unique.



En l’absence d’une autorité unique pour l’Europe, le protectionnisme au niveau européen mènerait seulement à une compétition entre états membres pour accueillir les entreprises (y a qu’a voir la compétition sur la fiscalité). Cette compétition mènera à des rivalités, et les rivalités à des guerres. Suffit de voir l’histoire du 20ème siècle en Europe pour s’en convaincre.



Alors le protectionnisme européen d’accord… mais ca signifie la création d’un état européen supra-nationaliste. Qui est d’accord pour une petite guerre de sécession ?







Tout à fait exact.



Mais comme en Europe il trop de pays qui ont des intérêts divergents, cela ne se fera jamais.



L’Europe a été bâtie sur l’idéologie du libre échange et de la compétition économique. Etant donné le système de décision Européen qui demande de mettre d’accord un nombre incroyable de pays, un changement de direction radical est totalement impossible.



D’ailleurs, c’est fou le nombre de politiciens qui ont prétendu qu’ils changeraient l’Europe. Au final, ils ont fait un petit tour, Merkel a dit non et ils sont rentrés dans le rang. Personne n’a encore réussi à changer quoi que ce soit.



Dans ces conditions, le plus raisonnable sera de quitter l’Europe pour remettre notre économie d’aplomb.



Ensuite seulement nous pourrons éventuellement forger des alliances économiques avec les pays qui partagent la même vision de l’économie et qui accepteront de respecter de vraies normes sociales antidumping.


Le 14/01/2017 à 18h 01







127.0.0.1 a écrit :



On peur s’assoir sur nos idéaux humanistes utopiques et faire du méchant dumping pour attirer les salauds de privilégiés dans notre pays afin qu’ils participent au financement de notre couteux système de protection sociale.



Ou alors on érige nos principes moraux en limite absolue et on continue notre périple dans la vallée du chômage et de l’endettement jusqu’à la révolte des citoyens conduisant au repli nationaliste.



La seconde solution étant la plus probable si je me fie aux événements politiques de ces derniers mois/années.







La guerre au dumping social ne mènera qu’a une surenchère sans fin du dumping social.



Il n’y a qu’un seul moyen pour éviter cela : le protectionnisme.



Vous voulez vendre en France ? Et bien produisez en France.



Vous verrez que les riches viendront habiter la ou ils produisent et vendent.



Ceux qui pensent que c’est un repli n’ont rien compris. Il n’y a que l’Europe qui pratique le libre échange. Ni la Chine, ni les USA ne le font.


Le 13/01/2017 à 21h 19







Moebius13100 a écrit :



Non, la loi 0 ne mène pas à la dictature robotique, dans terre et fondation elle permet justement la sauvegarde de l’humanité en ayant permis aux robots d’influencer le devenir de l’humanité pour qu’elle s’unisse en une conscience collective à l’échelle de la galaxie (galaxia).

Ainsi en cas d’attaque extérieure par une forme de vie inconnue l’humanité ne pourra être divisée et son unité la sauvera de toute menace puisque l’aboutissement de la logique robotique est que les 3 lois reposaient uniquement sur un etnocentrisme galactique sans se souvient de la menace potentielle extérieure.

Bon c’est un peu HS mais mon asimovisme se doit de réagir <img data-src=" />



De même, les trois mois + la loi 0 sont virtuellement infaillibles si elles sont à la base du code de toute machine pensante, après il s’agit de considération morales, l’intérêt du plus grand nombre dépassant toujours l’intérêt individuel quitte à sacrifier un individu si il n’y a aucune autre solution.



Concernant la news on est dans la connerie pure, le débat est bien trop précoce et l’UE a bien d’autres choses à faire que de dépenser l’argent des contribuables dans des débats stériles à l’heure actuelle tant les choses évoluent à grande vitesse.







D’ailleurs, au passage puisqu’on parle de débat philosophique sur les loi d’Asimov qu’il faudrait réaliser que les robots actuels n’ont pas de conscience ni la moindre intelligence comparable à celle d’une forme de vie, même simple.



Et s’il y a des débats de société autour de ces sujets, ce n’est certainement pas aux technocrates d’une institution Européenne de se substituer aux nécessaires débats de sociétés qui doivent aboutir à des décisions prises par les peuples… et personne d’autre.


Le 13/01/2017 à 21h 00







zart a écrit :



Face à la concurrence mondiale et au cout du travail, on maintient l’activité en France grâce à des robots. Nos politiques vont réussir à obtenir la délocalisation des robots. Comme ça on virera aussi tous les personnes qualifiées qui sont sur des emplois liés à cette technicité :)







C’est exactement ce qui va se produire…



Le 13/01/2017 à 20h 46

Ces technocrates européens qui vivent en dehors des réalités vont finir de parachever le suicide économique de notre continent.



Après avoir provoqué la délocalisation du travail grâce à une monnaie unique n’obéissant à aucune stratégie économique, ils vont provoquer la délocalisation des industries robotisées.



Car il n’y a rien de plus facile à délocaliser qu’un robot.



La tentation de ralentir l’automatisation de l’économie pour préserver les industries dépassées et des emplois pénibles est pathétique , illusoire et dangereux.



En contrariant la modernisation de nos entreprises, nous les condamnons à être tuées par leurs concurrents étrangers.

Le 14/01/2017 à 21h 31







127.0.0.1 a écrit :



<img data-src=" /> Le refroidissement de ce boitier est mauvais. Les disques chauffent énormément (65° en idle).







En même temps, avec l’expérience on sait que c’est une très mauvaise idée de faire un Nas sur du mini itx.



Parce qu’avec le temps, dans un NAS on veut toujours rajouter des disques. <img data-src=" />


Le 14/01/2017 à 21h 29







Ricard a écrit :



J’adore les cables partout. <img data-src=" />







Au moins les câbles, ça marche <img data-src=" />


Le 14/01/2017 à 20h 20







Xaelias a écrit :



Pas besoin d’être condescendant tu sais… En quoi c’est du m’as-tu-vu? Perso mon ordi je suis le seul à le voir. Oui il y a une vitre. Parce que j’aime bien voir l’intérieur de mon ordi, et accessoirement ça lui a sauvé la vie puisque mon watercooling commençait à fuir à cause d’un block défectueux.

Donc tu gardes tes jugements à 2 balles, et tu laisses les gens monter leur PC dans la tour qui leur plait s’il te plait?



Sinon le prix est clairement élevé. Je pense pas qu’ils s’attendent à en vendre des milliers c’est sûr… L’usage est très spécifique.







Du calme, sur les forums les gens ont bien le droit d’exprimer l’opinion qu’ils veulent.



Et non, son avis n’a aucun pouvoir de t’empêcher de monter ton PC avec la tour qui te plait. <img data-src=" />



Pour ma part, je la trouve plutôt sobre et de bon gout et pas du tout m’as-tu-vu.



On peut aimer faire de son PC un objet esthétique. C’est d’autant plus vrai avec un boitier car c’est un investissement durable.


Le 14/01/2017 à 19h 09







misterB a écrit :



On s’en fout de ça, a un moment faut arrêter la course a la finesse, on parle de machine Pro dédiée au boulots graphiques, pas une machine a Starbucks <img data-src=" />



les deux laptop visent les même clients







En même temps, si on parle de travail hors mobilité, j’ai du mal à comprendre ceux qui prennent un laptop pour bosser toute la journée.



Pour ma part j’ai fait le choix d’une station de travail avec 3 écrans, un vrai clavier mécanique, une souris confortable.


Le 13/01/2017 à 21h 47







indyiv a écrit :



comment sais tu si la qualité de l’essence est meilleure?







Voiture plus réactive et plus grande distance parcourue avec un plein.







Le 13/01/2017 à 21h 40







indyiv a écrit :



Quel est le cout d’une batterie de remplacement?







J’ai trouvé quelques tarifs ici :



http://www.automobile-propre.com/breves/des-tarifs-tres-bas-pour-le-remplacement…



Malgré le fait que tesla semble faire des prix sur les batteries, je pense que vu la somme, il n’y aura pas grand monde pour payer une batterie neuve sur une voiture de plus de 10 ans d’age.


Le 13/01/2017 à 21h 11







YohAsAkUrA a écrit :



je vois plein de chiffres annoncés qui sont vraiment très spéculatifs et hors de la réalité…



prennons une base de 100’000km par an.



en diesel, en se basant sur une conso de 5l/100 (ouai alors déja je mets une conso ultra basse.



cela te coutera 7000€ de carburant

sur une tesla avec 500km/100kw il faudra 20’000kwh pour faire 100’000km soit un total de 4000€ d’electricité.



Mais en 100’000km sur un mazout vous avez aussi des révisions a faire…. et la… autant vous dire que du coup le prix s’envole car pour rappel , sur une Tesla, vous n’avez que les pneus a changer ;) les freins s’usant très très très lentement grâce au frein moteur.



Le cas de l’allemange est un peu different et non inputable a Tesla car c’est simplement la loi qui est ainsi pour eviter les squatters!







Je pense que le calcul des coûts est beaucoup plus compliqué parce qu’il faut tenir compte aussi de la durée de vie et du cout de la batterie ainsi que de la valeur de revente d’occasion du véhicule.



A la revente, la courbe de décote d’un véhicule électrique est inconnue. Il est possible que dès lors que la batterie sera est usée, un véhicule électrique pourrait n’avoir plus vraiment de valeur marchande.


Le 13/01/2017 à 17h 30







alain_du_lac a écrit :



Si moi <img data-src=" />









Adhrone a écrit :



Moi aussi, et il y en a largement plus qu’on ne le crois.







Et qu’est ce qui vous fait penser que vous seriez des geeks ?





Moi j’arrête les frais sur ce topic. Je cherchais à prouver que pour le grand publique linux restait une peu attrayant,





Derrière Linux, il n’y a pas de force commerciale alimentée par des grandes boites aux poches bien garnies.



Voila ce qui fait la différence pour le grand public.





je me retrouve comme d’habitude avec une horde de défenseurs de linux.

On passe totalement à coté du débat et une nouvelle fois, j’ai l’impression que pour un système ouvert, on a plutôt des utilisateurs fermés.





Et bien j’attends vos arguments qui justifieraient pourquoi un geek irait utiliser un système d’exploitation qui par sa fermeture lui impose des limitations qu’il ne subira pas avec un système libre.



Si pour vous ceux qui préfèrent la liberté sont des utilisateurs fermés, c’est dommage…


Le 12/01/2017 à 20h 34







Adhrone a écrit :



Le cliché du geek et de linux <img data-src=" />



Il doit vraiment pas avoir beaucoup de geek dans le monde vu les parts de marché de Linux en Desktop.







Par définition, les geeks sont, ont toujours été … et seront toujours une minorité.





Je suis un Power User de Windows, j’ai déjà essayé Linux et je suis retourné vite fais à Windows, quand tu veux jouer, t’a pas envie de te taper de l’émulation ou un dual boot juste pour satisfaire des besoins de contrôle du système plus poussés du coté de linux.





Dans la vie, il y a des gars qui préfèrent leur Compilateur C a toute autre considération. Attention, ce n’est pas un jugement : comme on dit, chacun son truc.





Franchement linux c’est beau, c’est fluide quelque soit la distribution, mais si le système était si fabuleux, bien plus de monde serait dessus.





C’est bien connu, le fast food c’est forcément le top parce qu’il y a la queue devant à midi…





Rien que Ubuntu m’a donné une bonne leçon, des problèmes de lecture pour ma clé usb et mon disque dur en NTFS (venant de Windows c’est logique), des périphériques comme mon casque sans fil sans logiciel adapté, une perte totale de repère concernant les logiciels à utiliser, des logiciels pro indisponibles sur Linux, des lignes de commande à taper pour faire des manipulations à peine avancées et j’en passe.



Non clairement, pour surfer et faire de la bureautique basique Linux c’est bien pour le grand public, par contre dès que ça touche des usages à peine plus avancé c’est la galère.



Bon après on va comme d’habitude me dire que je suis un gros noob et que Linux est le meilleurs système au monde avec ses mises à jour transparentes, sa bibliothèque d’apps (sur certaines distributions) mais clairement dans MON CAS, je ne vois pas ce que le grand public gagnerai à passer dessus.





Tu n’est probablement pas un débutant, mais cela dit, tu ne correspond pas à la définition d’un geek.



Les geeks adorent résoudre des problèmes, ils s’attaquent souvent à des distro bien plus ardues qu’Ubuntu.





Rien que Ubuntu m’a donné une bonne leçon, des problèmes de lecture pour ma clé usb et mon disque dur en NTFS (venant de Windows c’est logique), des périphériques comme mon casque sans fil sans logiciel adapté,





Tu as simplement acheté du matos qui n’est pas certifié pour Linux. Acheter du matos certifié pour l’Os qu’on veut utiliser (y compris quand c’est Windows 10) c’est la base.



Au passage, tu te trompe : Linux sait lire le NTFS et le FAT.



C’est plutôt Windows qui ne sait pas lire les partitions Linux. <img data-src=" />





une perte totale de repère concernant les logiciels à utiliser,





Changement d’habitude, c’est normal. Il y a des listes d’équivalences.





des logiciels pro indisponibles sur Linux





Linux a aussi ses logiciels “forts”.



En dehors des usages de niche, il y a tout ce qu’il faut.





des lignes de commande à taper pour faire des manipulations à peine avancées et j’en passe.





Les geeks préfèrent la ligne de commande à la souris parce que c’est puissant et qu’on peut facilement automatiser.



Mais au niveau simple utilisateur, Linux ne demande pas d’employer la ligne de commande.


Le 12/01/2017 à 19h 54







Tidus93 a écrit :



Elle est pas mal celle-là <img data-src=" />

Non le geek ne connait pas forcément Linux. Linux n’est pas indispensable, on vit très bien sans et on peut être geek en même temps ça n’est pas incompatible.











dvr-x a écrit :



C’est pour ca que je commence mon commentaire par “Yes, si on est utilisateur Windows + Geek,”, Geek est un terme large, je ne vois pas pourquoi il serait réservé aux utilisateurs Linux dans ce domaine ? un peu d’ouverture… <img data-src=" /> Je pense aussi qu’on peut être les deux ? Perso, je suis Windows sur mon Fixe, Linux sur mon portable, l’un empêche pas l’autres… Les utilisateurs Linux voient aussi les désavantages au quotidien. Il y a les pour et les contre, la n’est pas le sujet.



Je n’ai pas dit ca.







Réalisez que le libre, ce n’est pas juste une idéologie. C’est surtout de vrais avantages concrets et pratiques qui en découlent.



Entre les mains d’un vrai geek qui par définition dispose de bonnes connaissances en informatique, Linux écrase littéralement tous les Os propriétaires.



Parce que codes sources ouverts, ça ne parle peut être pas à tata janine, mais entre les mains d’un vrai connaisseur, ça offre une souplesse de customisation immense avec de nombreux avantages concrets à la clé.



Dans le libre, la puissance communautaire s’exprime pleinement. La ou Windows impose un unique bureau, Linux en propose une pléthore. Et c’est comme ça pour tout : chacun peut choisir les composants de son système selon son usage et ses préférences.



Les gestionnaires de paquets de Linux permettent de composer finement son système. Rien à voir avec Windows Update.



Je souscrit totalement à l’idée qu’il puisse y avoir de bonnes raisons d’utiliser parfois Windows. Mais en ce qui concerne les geek, je n’en connait aucun qui ne préfère pas Linux.


Le 12/01/2017 à 13h 43







dvr-x a écrit :



Yes, si on est utilisateur Windows + Geek, je ne vois pas la raison d’un rejet de Windows 10 en même temps… Perso, tous ceux que je connais qui sont un peu Geek, ils sont sous Windows 10 depuis un bon moment !







Bah, les geek connaissent Linux.



Ils voient les avantages au quotidien par rapport à Windows 10 qui impose son bureau unique à tous et dont le système de mise à jour est vraiment lent.


Le 12/01/2017 à 13h 13







Aces a écrit :



J’ai investit dans un PC il y a deux ans et je ne suis pas prêt d’en changer.

Je sais que l’évolution sera réduite (PC Portable) mais tant que je peux lui coller des HDDs au format M2 (4 emplacements), remplacer mon HDD de 1To par un 2 et, si j’en trouve une, remplacer ma GTX980M par une 1080, ça m’ira très bien.



Pour le GPU, je ‘ai pas encore trouvé une carte au format MXM…







Bah, si tu veux profiter de la modularité, faut pas prendre un portable.



Le 12/01/2017 à 13h 12







OlivierJ a écrit :



C’est marrant j’ai déjà dû lire ce genre de commentaire il y a 10 ou 15 ans <img data-src=" /> .

En informatique si tu attends mieux, tu n’achètes jamais.







La différence, c’est qu’il y a 15 ans, les PC évoluaient.



Aujourd’hui, le matos n’évolue plus et les jeux vidéo n’évoluent plus.



Quel intérêt y aurait t’il à changer ?







OlivierJ a écrit :





(et à mon avis, pas trop à voir avec le marché des consoles, ça existait déjà il y a 10 et 15 ans les consoles)







Sauf qu’aujourd’hui les grands industriels du jeu vidéo visent essentiellement les consoles.





Le 12/01/2017 à 13h 21

L’écologie, ça parait vachement séduisant intellectuellement.



Sauf qu’en pratique ça aboutit juste à créer une espèce de machine administrative à pondre des interdictions qui pèsent durement sur le petit peuple et qui obligent les gens à payer pour renouveler leurs biens pour le plus grand bonheur des industriels.



Sous couvert d’écologie, on aboutit à des mesures ineptes comme à Paris on l’on interdit a la vielle twingo essence du pauvre tandis que le riche avec son 4x4 diesel de grosse cylindrée tout neuf peut continuer de venir y cracher sa fumée…



L’écologie, la vraie, ça viendra naturellement quand on sortira de cette course absurde au productivisme.

Le 11/01/2017 à 20h 36







tazvld a écrit :



De même, La RAT9 me plais justement pour ça.







J’avais hésité sur cette souris dont le concept me plait beaucoup.



La question que je me pose, c’est de savoir s’ils vont la reconduire dans la nouvelle gamme parce qu’elle n’est pas mentionnée :



http://www.madcatz.com/gamechanging/





Perso, la double connective serait vraiment cool.





Sur la mienne, j’ai ça. Mais en pratique, ça ne me sers à rien.



Sa seule utilité, c’est en cas de panne de batteries. Et sur une souris équipée de batteries rechargeables AA standard, il suffit de s’acheter un pack de 4 et un chargeur pour que ça n’arrive jamais.





A ceci, il faudrait aussi ajouter la molette décrantable de Logitech (en particulier celle qui est automatique, en usage bureautique, c’est vraiment bien) et les poids réglable (je suis personnellement adepte des souris lourdes).





Le décrantable des logitech, c’est pas mal à l’usage. Le seul défaut, c’est que je ne suis pas très fan du feeling du crantage qui se sent beaucoup quand on défile rapidement.





Pour l’instant, j’ai finalement jeté mon dévolu sur une MX master pour remplacer ma vieille MX revolution. Même si c’est pas de la souris de gaming, elle se défend comme souris polyvalente (connexion unify+blutooth+USB, et recharge via un cable USB en même temps que pouvoir l’utiliser) et est vraiment agréable en souris de tous les jours (la personnalisation des touches est pas trop mal, ainsi j’ai accès à la vue éclatée des fenêtre via le bouton sous le pouce)

Edit : la batterie sur la MX Master tiens facilement 2-3 semaines,





Pour ma part, je choisirait dorénavant toujours une souris pour le jeu parce qu’elles ont moins d’algo de lissage et d’économie d’énergie. Et parfois aussi un système sans fil plus performant que les modèles bureautiques. A propos de logitech, je n’aime pas du tout leur nouvelle gamme. En plus d’être hors de prix, ils ont supprimé la batterie standard amovible pour une batterie intégrée non remplaçable. Et ça, c’est le truc rédhibitoire pour moi. Je ne sais pas encore de quelle marque sera ma prochaine souris.


Le 11/01/2017 à 20h 14







alex.d. a écrit :



J’ai une Microsoft Optical filaire de 2001, utilisée quotidiennement. Encore 30 ans avant que le fil ne lâche, au rythme où c’est parti.







Et bien je peux te dire que tu est une exception rare.



Je connait bien les souris dont tu parles. Depuis la première intellimouse explorer à l’excellente intellimouse optical. A l’époque j’ai équipé beaucoup de postes avec ça. En prenant grand soin du fil (débattement), j’ai gardé la mienne 5 ans en usage quotidien intensif avant qu’il ne cède. Mais chez certaines personnes moins soigneuses, j’ai vu des souris dont le fil ne durait pas 6 mois.



Je veux bien admettre que certaines souris dont nous parlons ici ont peut être des fils plus durables ou interchangeable, depuis que j’ai touché au confort de bonnes souris sans fil, je n’y reviendrait plus.


Le 11/01/2017 à 17h 31

Très intéressant, mais toujours avec fil.



En plus de contrarier les mouvements de la souris, le fil constitue souvent le point faible en terme de durée de vie.



Bien sûr, pour les souris sans fil, c’est la batterie qui est le point faible. Il faudra éviter tout modèle ayant une batterie intégrée non remplaçable.

Le 11/01/2017 à 18h 42







TaigaIV a écrit :





S’en priver, pas automatiquement, mais je pense qu’il faut s’en méfier, tu trouveras pas mal de charlatan pour s’appuyer sur des théories pseudo scientifique pas toujours facile à démonter.









C’est exactement cela le problème.



Dans les domaines non scientifiques, on trouve quantité de charlatant qui cherchent à crédibiliser leur travaux par de la com utilisant un vocabulaire et une forme rappelant la science pour faire croire a la majorité de non initiés que leurs travaux seraient démontré scientifiquement.



Le résultat, c’est de voir des étudiant qui n’ont pas encore le niveau confondre ces théories non démontrées avec des choses prouvées.



C’est pour cela que l’on ne devrait jamais qualifier de science des domaines ou la majorité des théories sont controversées et n’ont jamais été formellement prouvées.


Le 11/01/2017 à 18h 25







ActionFighter a écrit :



Oui, je suis informaticien, et à aucun moment dans mon cursus, je n’ai eu de cours sur l’histoire des sciences.







J’ignore si ce que tu dit est ironique, mais la plupart des informaticiens sont quand même issus de la filière scientifique. Ils ont donc été conditionnés à cette façon de penser, même s’ils n’en ont pas toujours conscience.



D’ailleurs en informatique il y a aussi une parti non cartésienne qui touche à l’art plus qu’a la science parce qu’un ordinateur est le plus souvent censé se trouver derrière un espèce de machin humain totalement irrationnel. Et les écoles d’informatique ne pondent pas toujours de gens qui savent appréhender cela…





Sauf que l’économie est considéré par l’épistémologie moderne comme étant une science, et pas l’astrologie. C’est bien qu’il doit y avoir des raisons, non ?



Je t’invite à te documenter sur cette approche rationaliste de la science, qui a depuis été largement critiquée.





Je pense que tu t’avance un peu trop en décrétant qu’il y aurait un consensus sur la question.



Dans mon métier, je travaille depuis des années avec des personnes dont l’économie est le métier. Et ce sont bien ces personnes qui m’ont expliqué pourquoi ce domaine était plus un art qu’une science.



Et si tu pense que tout le monde est d’accord sur le fait que l’astrologie n’est pas une science, ça se voit que tu n’a jamais eu affaire au recrutement dans les grand groupes. Le plus amusant, c’est que ces boites sont dirigées par des “élites” sortant de cursus censés être scientifiques.





Le manque d’apports provenant des autres disciplines des sciences sociales est le plus gros reproche que l’on peut faire à la science économique.





Tout à fait, mais ça ne suffira pas.



L’économie est basées sur le comportement humain. Et comprendre le comportement humain est un mélange de culture, d’expérience et de choses que l’on ne sait pas quantifier. Certaines personnes en sont capables, d’autre non sans que l’on sache précisément à quoi cela tient.



L’économie est donc plus à rapprocher de l’art que de la science.





Néanmoins, établir une critique épistémologique d’une science sur la base de notre propre système scolaire me semble quelque peu limité.



C’est pareil pour la psychologie, qui est tout de même considérée comme une science.





Si tu essaie de mettre un scientifique a la psychologie humaine, tu ne sera pas déçu du voyage <img data-src=" />


Le 10/01/2017 à 18h 00







OlivierJ a écrit :



Tu peux prouver cette dernière affirmation ? Tu penses que les économistes inventent des trucs comme ça pour le fun, basés sur rien ?







Oui, je peux le prouver.



Quand ils s’agit de prévoir le dimensionnement d’un câble électrique ou la section d’une poutre, la science fournit des outils qui permettent de prévoir leur comportement et leur dimensionnement avec une fiabilité de 100%.



A l’inverse, dans le domaine économique, quand il s’agit de prévoir si une nouvelle gamme de vêtements se vendra ou si une politique économique fonctionnera comme prévu, on ne dispose pas d’outils capables de donner une réponse fiable.





Par ailleurs, la météo obéit aux lois de la physique, pourtant on ne peut prédire le temps à plus de 15 jours, et ça ne discrédite pas la physique en tant que science.

(oui je sais pourquoi on ne peut pas prédire la météo à plus de 15 jours, la sensibilité aux conditions initiales, etc.)





Le domaine est incontestablement scientifique car ce sont bien les lois de la physique fondamentale qui permettent d’établir des simulations qui ont permis d’affiner les prédictions.



Malgré le fait que l’on dispose de lois précises, on ne dispose pas de la faculté d’obtenir ni de calculer l’immense quantité de données qui interviennent dans le processus (chaque atome participe…). C’est une limite pratique, pas une limite scientifique.



C’est aussi un problème que l’on rencontre en économie. Mais en économie, il faut rajouter le fait qu’on ne dispose pas de lois précises comme en physique.





Mon Dieu… C’est connu, la physique ne décrit que des phénomènes simples (les écoulements de fluides par exemple), et les économistes lancent des dés pour construire leurs modèles et publications.





Non, ce n’est pas ce que j’ai voulu dire.



Ce que j’ai voulu dire, c’est qu’en physique on a pu isoler des lois fondamentales simples qui permettent de comprendre le fonctionnement de tout l’univers. Ce n’est pas le cas en économie.


Le 10/01/2017 à 17h 46







OlivierJ a écrit :





Punaise… Les mecs jamais vous quittez vos préjugés, ou bien l’image à l’ancienne de l’économiste, genre le marxiste face au libéral façon années 70-80 ? On est en 2016, l’économie change aussi.



Lisez par exemple Tirole, bon sang. Un article qui explique un peu ses recherches, de façon abordable :http://blog.francetvinfo.fr/classe-eco/2014/10/13/jean-tirole-prix-nobel-deconom… .



« […] Jean Tirole a consacré sa carrière à la question de la structure des marchés sur lesquels les participants ont un pouvoir. Nous ne sommes pas là dans le “marché parfait” mais dans des marchés réels, où les intervenants ont un pouvoir. Cela pose à la fois des questions descriptives - comment vont agir les participants à ce marché en fonction de son mode de fonctionnement - et des questions plus prescriptives : comment ces marchés doivent-ils être organisés pour bien fonctionner, dans l’intérêt du plus grand nombre ?



Toute l’œuvre académique de Jean Tirole s’organise autour de ces questions : trouver comment décrire, modéliser le comportement des acteurs, et définir comment un marché doit être organisé, ce que peuvent faire les gouvernements, les régulateurs, les participants, pour en améliorer le fonctionnement. Et, au désespoir du blogueur qui voudrait offrir à son lecteur une réponse tenant en une phrase, on peut résumer son approche à l’idée suivante : c’est compliqué.



Il n’existe pas de solution unique, applicable en tout temps et en tout lieu, qui permettrait aisément de savoir comment agir en fonction de la structure de tel ou tel marché. La technique de Jean Tirole est celle du cas par cas, de l’identification des configurations et de solutions qui ne sont pas généralisables. […] »







Ce qui confirme totalement mes propos.



En économie, on produit des études sur les réalités de terrain pour tenter de les comprendre de manière empirique. Et parce qu’il est impossible d’en déduire des lois fondamentales absolues, on aboutit à des modélisations empiriques qui ont une fiabilité très limitée ou restreinte à des conditions précises et mal délimitées.



A l’inverse, les domaines des la science traditionnelle qui étudient les lois fondamentales des mathématiques et de la physique permettent d’aboutir à des modèles dont la fiabilité théorique est parfaite.



Dans un cas, la matière se prête parfaitement à l’approche scientifique, dans l’autre, beaucoup moins.


Le 10/01/2017 à 16h 40







ActionFighter a écrit :



La sociologie ou la psychologie sont considérées comme des sciences humaines, donc des sciences, et utilisent les mêmes méthodes.



La sociologie décrit un modèle de comportement et de représentations d’agents dans un système/environnement donné (sociologie économique, urbaine, rurale, carcérale, etc…).



C’est exactement pareil pour l’économie dont les travaux s’entendent dans un système spécifique (économie capitaliste, libérale, collectiviste, etc…).







Tous les domaines n’appliquent pas les mêmes méthodes. Et pour appliquer des méthodes scientifiques, encore faut t’il les avoir apprises. Ce qui est très loin d’être le cas de tous les cursus.



Ensuite, dans la pratique, chaque métier à sa manière de raisonner. Un mathématicien et un informaticien ne pensent pas du tout de la même manière alors qu’on pourrait penser que leurs domaines sont proches.



Bien sûr, tous les domaines veulent se voir qualifier de science à partir du moment ou des personnes fournissent un travail d’étude. Mais a ce titre, l’astrologie pourrait être aussi qualifié de science.



Pour ma part, je fait la distinction entre les domaines dans lesquels ont peut arriver à bâtir des théorèmes cartésiens solides et démontrables et ceux ou il est manifestement impossible d’y parvenir, démontrant ainsi que la méthode scientifique ne peut s’y appliquer au mieux que de manière très partielle.





Le soucis concernant l’économie ne vient pas de sa théorisation en elle-même qui serait non scientifique, il vient de l’utilisation de branches de l’économie spécifiques à des systèmes (notamment la branche capitaliste, et encore plus la libérale), qui sont présentés comme étant des branches relevant de la science exacte alors que ce n’est pas le cas, et de la volonté délibérée de ne pas faire intervenir les autres champs des sciences sociales, notamment la sociologie, pour modéliser les mécanismes et les conséquences particulières d’un système donné sur ses agents.





Notre système scolaire produit une majorité de personnes spécialisées. Or la spécialisation produit naturellement un déséquilibre culturel important.



Comme la spécialisation est vue comme une fin en soi, personne ne songe à rééquilibrer la culture d’un étudiant brillant dans son domaine, mais dont l’hyper spécialisation produira une forme de cécité intellectuelle par la suite.


Le 09/01/2017 à 20h 25







Sylvounet a écrit :



Autant je trouve présomptueux et pas très malin à Fillon de s’attribuer un début de paternité sur le développement d’Internet en France, autant je ne trouve pas si illogique que cela d’avoir une espèce d’autorité de régulation d’Internet.



Et encore, il ne s’agissait même pas d’une autorité puisque c’était un conseil.



Bref, c’est un bien triste championnat d’exhumation auquel on se livre face aux déclarations des uns et des autres.







La régulation de l’internet, on voit ce que ça donne en Chine…



Au passage, aucune démocratie n’a d’organisme pour “réguler” la pensée sur Internet.



L’exhumation a le mérite de montrer ceux qui ont eu des raisonnements complètement à côté de la plaque vis a vis des nouvelles technologies qui auraient été catastrophiques si on les avait appliqué.



Pour ma part, je ne voterait pas pour de telles personnes…


Le 09/01/2017 à 19h 48







ActionFighter a écrit :



Pour tenter de résumer : la science, c’est un ensemble de méthodes, pas un résultat.



L’économie, dans sa construction théorique, se doit de respecter cet ensemble de méthodes qui constitue la science.

On peut tout à fait contester le respect de la méthode, le résultat, mais il n’en demeure pas moins que théoriquement, le respect de ces méthodes fait de l’économie, une science à part entière.







Le problème, c’est justement qu’en économie on n’est pas en mesure de mettre au point des méthodes.



L’économie repose sur de l’intangible : le comportement humain que personne ne sait modéliser.



Des méthodes empiriques ne sauraient constituer une science. Appeler de l’empirisme une science, c’est une escroquerie intellectuelle…


Le 09/01/2017 à 19h 39







picatrix a écrit :



Et la communauté scientifique a validé l’économie comme une science.







La, je me marre. Allons voir quelles théories économique “la communauté scientifique” a bien pu valider <img data-src=" />





Donc tu peux continuer à affirmer que la terre est plate, ni que l’homme n’a jamais marché sur la lune.





Le fait de savoir si l’homme a réellement marché sur la lune ou non n’est pas un problème qui relève de la science.





L’histoire n’est pas une science ?

La paléontologie n’est pas une science ?





Dans la mesure ou dans ces domaines on peut poser des conclusions cartésiennes sur la base de preuves tangibles, ce sont des sciences.

Le problème dans ces domaines, c’est qu’il est parfois difficile de savoir à quel point les conclusions qu’on nous présente reposent sur des faits ou sur des extrapolations plus ou moins sérieuses.





Par exemple la climatologie est dans le même cas : ils ont observé le passé, bâti des théories, construit des modèles mathématiques mais n’ont jamais pu valider leurs modèles car il faudrait attendre quelques millénaires pour constater l’exactitude (ou pas) de leur prévisions. Pourtant on utilise ces modèles pour essayer de préserver l’environnement. Doit-on jeter leur théories aux orties et rouler en diésel ?





La climatologie est une science dans la mesure ou l’on connait les lois fondamentales qui régissent les interactions de la matière. La difficulté viens du fait qu’un modèle précis demanderait une puissance de calcul équivalente… aux interactions qui font l’univers.





Dire que l’économie n’est pas une science est une absurdité.





L’économie n’est pas une science parce qu’on ne connait pas précisément les lois fondamentales qui la régissent. Tout cela repose sur le très complexe comportement humain que la science n’a jamais encore su modéliser.


Le 09/01/2017 à 19h 13







coket a écrit :



Mais bien sûr… reprends les 2 derniers siècles pour voir le caractère incontestable…



Pour le reste, si tu veux à tout prix avoir raison, grand bien te fasse; je ne vais pas passer ma soirée là dessus <img data-src=" />







Tout à fait.



L’histoire de la science à montré qu’a la lumière de nouvelles connaissances, les lois que l’on croyait pourtant immuables peuvent s’avérer incomplètes.



Raison de plus pour ne pas laisser l’économie qui constitue en terrain beaucoup moins favorable à la méthode scientifique vendre son empirisme en utilisant la réputation de rigueur de la science.



Le 09/01/2017 à 18h 12







picatrix a écrit :



Mais alors pourquoi la “théorie des cordes” n’est qu’une théorie, un courant de pensée, et n’a jamais été démontrée de manière suffisamment absolue pour que tout le monde soit d’accord ?







Parce que c’est justement le rôle d’une science de faire le tri entre les théorie d’un côté et ce qui est démontré de l’autre.



Le problème en économie, c’est qu’il y a confusion totale. Des théories non démontrées sont élevées par le dogmatisme de l’enseignement au rang de lois fondamentales.



C’est la cause d’une partie des problèmes économiques actuels parce qu’on applique un logiciel économique totalement obsolète.


Le 09/01/2017 à 18h 00







coket a écrit :



Bien sûr… donc la physique n’est pas une science <img data-src=" />







La physique est une science dans la mesure ou elle repose sur des lois fondamentales de l’univers qui sont suffisamment simples pour être démontrables de manière rigoureuse et incontestable. Et cela implique qu’ensuite on peut se fier à ces loi qui sont suffisamment solides pour expliquer tous les phénomènes.



En économie, aucune déduction n’est assez solide pour bâtir un raisonnement dessus…





L’économie est une science, ne vous en déplaise. Ce n’est pas une science dite “exacte” comme les mathématiques, mais c’est bel et bien une science.





Contrairement à la physique, l’économie ne repose pas sur des principes simples, mais sur des interactions complexes liés au comportement humain. On ne peut pas qualifier de science quelque chose qui est basé sur l’empirisme.



Si tu aime le terme de “science”, on peut rapprocher l’économie des sciences humaines. Mais c’est un abus de langage…


Le 09/01/2017 à 17h 51







uzak a écrit :



C’est la magie de l’informatique ça : arriver à un comportement imprédictible en ayant toutes les données en main. L’informatique, c’est l’entropie appliquée aux mathématiques <img data-src=" />







Bah, les maths et l’informatique, c’est la différence entre une science théorique et un domaine pratique.


Le 09/01/2017 à 17h 35







gavroche69 a écrit :



SI !! <img data-src=" />



Ça me conforte dans l’idée que ce n’est pas une science au sens strict du terme donc oui ce que tu as écrit confirme ce que je pense.



Mais bon, ce n’est pas la première fois qu’un mot est détourné de son sens profond.



“La science est l’ensemble des connaissances et études d’une valeur universelle, caractérisées par un objet et une méthode fondés sur des observations objectives vérifiables et des raisonnements rigoureux.”



En aucun cas l’économie ne correspond à ce début de définition, je n’en démords pas…







+1


Le 11/01/2017 à 17h 45







ArchangeBlandin a écrit :



Je n’ai connu qu’avec la souris, j’ai commencé DOS à 5 ans en connaissant pas vraiment bien l’alphabet et en recopiant des commandes…



J’en ai nettoyé un nombre incalculable de souris à boule encrassées, je pense qu’il y a moyen de faire des cauchemars de ce que j’ai pu voir ! Et je ne parle pas des patins de souris à nettoyer aussi, mais c’est toujours d’actualité et c’est plus facile.

La souris optique, ça a été une grande invention, même si mes premières refusaient de marcher sur beaucoup de surfaces. Ce que j’ai trouvé de mieux à l’époque, c’était le sous-main publicitaire en papier et je virais la page quand c’était sale, ça marchait avec certaines souris à boule aussi.







Effectivement, s’il y a une invention qu’on ne regrette pas, c’est bien la souris optique. Et je ne connait personne pour dire “c’était mieux avant”.

La feuille de papier, c’était effectivement une valeur sûre pour avoir un bon tracking sur les premières souris. Et ça le reste, même avec les dernières souris.



Une autre invention qui a changé la vie en matière de souris, c’est la technologie sans fil. Les premiers modèles étaient presque inutilisables à cause des latences très perceptibles et gênantes même en usage bureautique. Mais depuis, la technologie à progressé…





Le 11/01/2017 à 00h 21







ArchangeBlandin a écrit :



J’en ai en effet une légère sur mon PC de boulot, mais on s’en rend assez peu compte.



Pour ceux qui ont eu la chance de connaître cette horreur, l’implémentation de l’accélération de la souris dans les vieux windows était à chier, surtout qu’on avait des souris à boule avec des fois un peu d’inertie si l’on était pas sur le bon support ou à cause de la poussière, j’en ai gardé un traumatisme je crois.



Et oui, je suis de moins en moins jeune, misère.







L’horreur des souris à boule avec tout ces gens qui laissaient les axes s’encrasser jusqu’à ce que ça ne tourne plus. <img data-src=" />



Les jeunes n’imagineraient jamais qu’a une époque, les ordinateurs n’avaient pas de souris…


Le 11/01/2017 à 00h 09







OlivierJ a écrit :



Dans la mesure où la main a une précision limitée, il faudrait m’expliquer à quoi sert de détecter des mouvements infimes et en fin de compte aléatoires.







Déjà, c’est comme pour les APN, il faut voir quelle est la précision réellement effective sans “jitter”.



Quand à la main qui est effectivement imprécise, cela dépends de la façon de la tenir. Il existe des méthodes pour atteindre momentanément une précision importante : en bloquant la souris avec les doigt sur lequel on agit comme une sorte de levier, la précision devient importante au détriment de la rapidité. Dans un jeu, il faut savoir changer rapidement sa prise en main.





Pas compris l’histoire de la précision angulaire.





Dans un jeu en 3D à la première personne, les mouvements de la souris ne sont pas transposés dans la position d’un pointeur de souris se déplaçant avec des positions en pixels, les déplacements de la souris modifient directement les angles de la direction d’observation du joueur. Et quand on snipe à 100m sans utiliser un viseur, la précision angulaire, ça compte…





Effectivement, je ne pige pas le rapport avec la résolution de l’écran, que sortent certains.





Parce qu’il n’y a rien a piger. Il y a une idée fausse fortement répandue selon laquelle la sensibilité de la souris devrait être fonction du nombre de pixels de l’écran.

La vérité, c’est que la sensibilité de la souris doit être fonction de la densité d’affichage. Donc les écrans HiDPI peuvent réellement demander de changer sa souris.





L’accélération de la souris, ça existait déjà quand on avait des écran 640x480, pour être à la fois précis au pixel près, et parcourir tout l’écran sans bouger trop la main.





Oui, par contre dans les jeux, c’est contre productif.



Mais quand on parle d’accélération, il faut distinguer deux formes d’accélération. Celle produite par le système d’exploitation qui peut être désactivée et celle qui est produite naturellement par l’imprécision de certains capteurs de souris, y compris sur certaines souris dédiés aux joueurs. Les capteurs qui produisent de l’accélération, c’est la bête noire des joueurs.


Le 09/01/2017 à 21h 00







DoWnR a écrit :



Je voudrais bien voir dans quel FPS tu peux régler la sensibilité suffisamment pour pouvoir utiliser une souris à 12000 ou 16000dpi… vais d’ailleurs aller tester ça de ce pas sur quelques titres.







Certains jeux peuvent effectivement poser des problèmes, c’est d’ailleurs pour cela que les souris pour joueur permettent d’avoir des profiles différents.



A noter que dans certains cas, les “settings” ne permet pas d’avoir la plage nécessaire aux souris récentes, mais en changeant directement le coefficient (diviseur ou multiplicateur) dans le fichier texte qui contient les réglages, ça fonctionne assez souvent.


Le 09/01/2017 à 18h 09







ArchangeBlandin a écrit :





En fait, les DPI, je n’ai jamais rien utilisé au delà de 2000, peut-être parce que je n’ai pas un écran hyper maxi HD avec trop de pixels, je ne sais pas…







Même s’il y a une grosse surenchère marketing sur les DPI, je pense que les constructeurs devraient expliquer à quoi servent les DPI au delà de 1000 parce que la plupart des gens ont de jolies idées reçues en disant que ça ne sers à rien.



La première idée reçue, c’est d’associer résolution et nombre de pixels de l’écran. Dans les jeux, il s’agit plutôt d’augmenter la résolution angulaire.



Et non, ça n’ira pas “trop vite” si vous utilisez la précision maximale de la souris parce qu’il faut simplement ajuster la sensibilité dans le jeu en conséquence. Et non, ça ne reviendra pas “au même”, vous gagnerez en précision angulaire, par exemple dans les FPS pour sniper. Bien sûr, encore faut t’il que les DPI mentionnés ne soient pas affectés de “jitter”, mais c’est un autre problème. Et le fait est qu’il y a d’autres critères importants comme l’accélération qui doit être le plus proche possible de zero.



Pour les applications courantes, c’est un autre problème. C’est la raison pour laquelle les souris pour joueur peuvent changer facilement de résolution.


Le 09/01/2017 à 18h 46







Natsume a écrit :



Plutot logique comme produit en fait.

De nos jours on a des smartphones ultra fins, qui sont en eux mêmes de vraies foudres de guerre.

Un PC format CB, pourquoi pas…







L’idée en elle même va clairement dans la bonne direction. Mais ce qu’Intel n’e semble pas comprendre, c’est qu’il ne suffit pas de pondre du matériel.



Ceux qui ont fait le Raspberry PI ne se sont pas contentés de faire le matos, ils ont aussi travaillé sur l’environnement logiciel, les accessoires, la connectique et la distribution commerciale de manière à ce qu’on puisse l’exploiter très facilement dans la pratique.