votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 31/12/2016 à 16h 24







obrow a écrit :



Je m’étonne toujours que l’on reproche trop de choix dans le libre…

Au niveau de l’entreprise le choix peut être entre Debian, Ubintu, Red Hat et Suse donc il n’est pas si vaste et puis il me semble que dans tous les autres aspects de la vie nous devions faire des choix.

Le nombre de véhicules est vaste et on arrive à se trouver une voiture…

Le nombre de PC dans les magasins est vaste et change tous les 3 mois et votre “madame michu” (je n’aime pas ce terme péjoratif) est tout à fait capable de choisir son pc, sa tablette et son téléphone.

Pourquoi imaginer qu’il faille lui proposer un seul logiciel parce que ce serait trop compliqué pour elle de faire un choix…







Ca me rappelle il y a longtemps quelqu’un qui venait d’URSS et nous disait que dans nos magasins occidentaux il y avait trop de produits, qu’on ne s’y retrouvait pas.



Dans le monde propriétaire, les gens ont tellement été habitués à ce qu’on fasse tous les choix à leur place qu’ils sont un peu perdu dans le monde du libre.



C’est un peu comme si tu ouvre la porte d’un prisonnier qui n’a jamais connu la liberté. La porte est ouverte, mais il ne sors pas. Pour lui, la liberté, c’est un monde inquiétant qu’il ne connait pas.



Le 31/12/2016 à 13h 58







Cetera a écrit :



Tu es libre de critiquer Windows et MS (et tu (le) fais bien).

Ce n’est pas réciproque avec le pingouin..;

Finalement, le libre est prisonnier de son idéologie qui interdit toute critique à son égard.







Le problème, c’est que la plupart des gens qui critiquent ce qu’ils nomment “l’idéologie du libre” en ont une compréhension qui est proche du néant. Donc cela provoque logiquement de l’irritation.



Au passage, la réalité du monde informatique de ces dernières années à donné largement raison aux libristes. Ce qu’ils avaient prédit depuis très longtemps est bel et bien arrivé.







Le 31/12/2016 à 13h 52







tpeg5stan a écrit :



En vrai, c’était sans doute le cas il y a quelques années, mais ça devient de moins en moins vrai avec l’émergence de masse de distributions user-friendly. Linux Mint, voire même Antergos (!) sont installables juste en cliquant sur suivant et plutôt simples d’utilisation. A contrario, Ubuntu est de plus en plus un bloatware.

 

C’est mon ressenti perso, hein, mais je trouve que « ubuntu : grand-public, le reste : avancé; ça devient de moins en moins vrai »







J’était certain qu’en disant qu’Ubuntu était la distribution la plus connue, il y aurait forcément des réactions. <img data-src=" />



Cela dit, je suis d’accord avec toi que si Ubuntu est de loin la plus connue par le grand public, ça n’est pas forcément la seule adaptée au grand public ni forcément la meilleure. C’est juste la plus connue.









Le 30/12/2016 à 20h 57







carbier a écrit :



L’OS ‘privateur’, je m’étais bien dit qu’il faudrait bien à un moment ou à un autre qu’un petit barbu utilise ce terme qui ne veut rien dire…







Je pense que l’usage de ce terme est volontairement fait pour choquer.



Mais détrompe toi, les libristes ont un argumentaire construit sur cette question.





Sinon pour en revenir à cette longue et charmante explication.

Plutôt que de faire par idéologie une bataille entre le “libre” et le privé concernant l’utilisateur lambda, tu ferais mieux de mettre en opposition les centaines d’OS libres avec les quelques OS “privés”. Si tu était un tout petit peu honnête tu admettrais en effet qu’il n’y a pas une solution libre qui se dégage des autres.

Or qui dit solution différente, dis ergonomie, logiciels (noms), philosophie différente. Dans ce cas, explique moi simplement comment Mr Tout le monde va faire un choix dans ce fatras que représente les distributions linux ?

Comme tu le dis si bien: se poser la question c’est déjà y répondre…





Pourtant, il est de notoriété publique que la distribution Ubuntu se détache clairement des autres du point de vue usage par le grand public.





Le jour où le monde du libre se départira de sa vision auto-satisfaite de ce qu’ils fournissent pour vraiment créer en commun plutôt que d’essayer de réinventer le monde chacun dans son coin… Ce jour la, oui Microsoft pourra vraiment craindre pour son hégémonie… En attendant on aura droit au sempiternel discours de “Boooouuuhhh” tout est la faute de Microsoft.





Malheureusement il s’avère que le monde propriétaire a bien montré les limites de la création unique que l’on impose à tous.



Parce que la création informatique touche à une forme d’art, il ne suffit pas d’aligner des hommes derrière un projet unique pour obtenir un résultat optimal.



L’atout du monde libre, c’est justement ce foisonnement de projets et d’idées. Chacun fait ce qu’il veut et l’on choisit ensuite le meilleur.



Et quand un projet prends une mauvaise direction, ça aboutit à des fork : l’utilisateur choisit la ou les voies qu’il apprécie.



Ajoutons à cela que tous les besoins ne sont pas identiques. Le monde propriétaire veut imposer le même environnement à des débutants et des professionnels alors que leurs besoins sont très différents. Linux fournit une réponse plus appropriée et pragmatique.





Le 29/12/2016 à 16h 27







D4rkvicious a écrit :



Oué le vieux débat, mais le libre contrairement à la légende à un coût et des contraintes, puis faut encore dépenser pour la formation des Administratifs qui ne sont pas forcement des nerd devant un clavier. Il me semble que l’Allemagne  avait fait le basculement vers le libre pour revenir quelques années après vers windows  à cause des coûts trop élevés. Mais c’est possible que je dise des conneries ,je viens de me réveiller soyez indulgent







Et contrairement aux légendes urbaines, les logiciels propriétaires ont aussi un coût de maintenance en dehors du payement des licences.



Quand aux cout de formation nécessaires pour le passage aux logiciels libres, c’est logiquement un investissement qui s’amortira facilement dans le temps.



J’ajouterais pour le cas de l’Allemagne qu’il n’est jamais pertinent de prendre pour exemple des cas isolés. Globalement, ceux qui ont migré vers le libre en sont contents.



Il faudrait d’ailleurs rappeler au passage que le prix n’est pas le seul critère important. Le libre, c’est aussi des intérets liés à notre indépendance.


Le 31/12/2016 à 16h 12







matroska a écrit :



En fait moi j’ai commencé bien avant la version 1607. J’ai à chaque fois mis à jour les versions sans clean install avec plus ou moins de déboires mais qui sont du aux upgrades foireuses.







Depuis l’upgrade de windows 8, tout semblait bien fonctionner jusqu’au jour ou j’ai branché un second disque dur et que j’ai vu que les gros transferts plantaient. Mais en même temps, la personne qui utilise cette machine ne va pas souvent sous windows. Alors j’ai racheté un disque dur et fait un clean install avec le disque tout seul. Et sans désactiver l’AHCI, ça plante de manière aléatoire (mais définitive) pendant l’installation de W10 à la phase de copie de fichier, mais toujours à un pourcentage différent.





Ton ISO est bien officiel Microsoft ? Essaie d’en télécharger un autre et de réessayer, parfois ça peut être capricieux et surtout on pourra peut-être plus cerner le problème qu’avec une seule version.





Oui, c’est bien l’iso officiel Microsoft qui provient de leur site (et la licence est bien officielle). Je vérifie toujours soigneusement le certificat d’un site avant tout téléchargement. Je l’ai téléchargée 3 fois et comparé les fichiers. J’ai essayé avec un DVD gravé(et vérifié) avec l’iso, mais aussi avec une clé USB faite avec l’outil Microsoft qui télécharge directement le fichier. A chaque fois, le résultat est le même.



Sur le web j’ai trouvé pas mal de sujets qui parlent de problèmes avec le driver AHCI périmé qui pose problème depuis l’anniversary update. J’ai cru comprendre quelque part qu’une mise à jour précise pourrait régler le souci, donc j’essayerais de réactiver l’AHCI après quelques update pour voir si le problème est solutionné. Pour l’instant, ça fonctionne bien en mode IDE.

En fait, j’ai naïvement pensé que depuis le temps le correctif devait être intégré à l’ISO. Peut être que ce n’est tout simplement pas encore le cas. En ce moment, je travaille tellement peu avec Windows que je n’ai plus vraiment l’habitude de cet Os.


Le 30/12/2016 à 17h 39







psn00ps a écrit :



C’est étonnant que ça râle autant sur Windows 10.

Sur Android, Google màj ses applis sans rien demander, sans réglage possible et personne ne se plaint.







Android, ce qu’ils font, je cherche plus trop à comprendre. Pour moi, c’est sans espoir…



Le 30/12/2016 à 16h 30







Obidoub a écrit :



Désactive le contrôleur du lecteur de disquettes dans le bios ?







Je testerais.







matroska a écrit :



Très étrange ! J’ai un PC avec exactement la même CM et un Q9450, 4GB de RAM, je n’ai eu aucun souci après de nombreuses installations… Je suis Insider avec cette configuration. Par contre moi j’ai installé directement en mode AHCI. Si ça marche en IDE tant mieux, le gain en AHCI ne sera pas forcément notable de toute façon.

<img data-src=" />







C’est intéressant. J’ai 8 Go sur cette config, mais logiquement ça ne devrait pas influer. Et vu que j’avais débranché tout autre matos, reste plus que la carte graphique(une Radeon 7950). Mais la encore elle semble fonctionner parfaitement aussi bien sous Windows que Linux. Et la mise à jour vers Windows 10 était passée sans souci.



Dernière piste possible, j’ai utilisé l’iso “Win10_1607_French_x64_3.iso” qui était proposée il y a quelque jours sur le site Microsoft. Avec “insider”, as tu une version plus récente ?


Le 30/12/2016 à 14h 25







matroska a écrit :



@sr17 Justement il faudrait passer par la case Gparted ou autre pour totalement supprimer les partitions et laisser l’installation de Windows les gérer. Sinon un autre souci peut-être le cas, ISO corrompu…



<img data-src=" />







Le disque dur était neuf et donc totalement vierge. Et le ISO a été vérifié. J’ai même été jusqu’à changer le câble SATA, nettoyer soigneusement tous les connecteurs, vérifier que le bios était bien le dernier et que la RAM passait encore bien le Memtest.

S’agissant de matériel de qualité (Processeur Intel Q9400, carte mère Asus P5Q-E), cela m’a surpris. C’est le genre de matos qui passe toujours bien, aussi bien sous Windows que Linux. Et j’avais pas eu de problème quelques temps avant pour installer sur mon vieux Sandy Bridge.



Au final, d’après ce que j’ai compris, c’est un problème avec un pilote AHCI depuis l’aniversary update. Et l’installation est finalement passée en basculant dans le bios en mode IDE au lieu de l’AHCI.


Le 30/12/2016 à 13h 54







tazvld a écrit :



Des amateurs, il m’a fallut 15minutes sur un nouveau PC (fraichement monté et installé) : flashage à moitié foiré de la carte mère, BSOD régulier du PC.







Pour ma part, j’ai été très surpris il y a quelques jours, sur un ancien core 2 quad, l’installation se fige complètement. La machine fonctionne pourtant très bien sous Linux.


Le 30/12/2016 à 22h 40







Gilles.T a écrit :



Le suisses canadiens finlandais danois suédois néo zelandais australiens Singapouriens et bien d’autres confirment. 

Les Somaliens confirment que si on respecte pas l’état de droit qui est la base du libéralisme, ben ça marche pas. Et que ceux qui les prennent comme exemple de libéralisme sont effectivement toujours aussi ridicules. :)



Maintenant on peut demander aux Venezueliens ce qu’ils pensent du socialisme. Enfin, ceux qui survivent encore…







Sauf que dans la vraie réalité d’un système libéral, la capacité à faire respecter ses droits dépends largement des moyens financiers pour se payer un bon avocat.



Dit autrement, un pauvre qui n’a pas les moyens, il plie l’échine et il ferme sa gueule. Ca c’est la vraie vie, la vraie réalité.



Et attention aux raisonnements simplistes. Réaliser les limites du libéralisme n’implique pas pour autant que la seule alternative auquel on pourrait penser soit le communisme.


Le 30/12/2016 à 22h 27







Gilles.T a écrit :



Oui tout à fait. Les gens qui sont libres sont en esclavage.







La belle arnaque du système libéral, c’est que la liberté n’existe que dans le catéchisme du joli bouquin inventé par ses adeptes.



Dans la vraie vie, on constate que la liberté n’existe que pour les classes sociales les plus favorisées.



Les autres cravachent comme des esclaves avec des contrats précaires, un choix d’emploi inexistant, des salaires de misère et bien souvent sous les ordres de petits chefs qui n’ont rien à envier à des dictateurs..



Bref, en pratique avec une liberté de choix réelle totalement inexistante et une qualité de vie médiocre.



Au passage, le choix d’un système politique ne se limite pas aux extrêmes comme le libéralisme et le socialisme.





Pendant ce temps, les gens qui sont aux ordres de l’autorité sont libres. Et puis quand l’Etat prend 6070% de ton salaire, là magie, c’est pas de l’exploitation ma bonne dame. <img data-src=" />





Demande toi qui est le plus libre de son temps et le moins stressé entre un fonctionnaire et les employés bien stressés et précaires du privé <img data-src=" />.



Quand a ce que l’état prends sur ton salaire, il faut se méfier des raisonnements simplistes. La vérité, c’est que cela correspond à des services indispensables qui te sont rendu. Dans un pays libéral, tu payerait aussi ces services, mais part… et très cher. Ce qui reviendrait au même dans le meilleur des cas. Mais dans la vraie réalité, le système privé est bien pire. Demande à ceux qui connaissent le système de santé des USA et ses millions de gens qui ne bénéficient plus d’aucune prise en charge de leur santé.





C’est quand même bizarre que tant de pays avec beaucoup moins d’Etat aient un niveau de vie largement plus élevé qu’en France. Sûrement parce que ces gens là n’ont pas encore compris ce que les génies français ont compris depuis longtemps.





Sauf qu’il suffit de voyager un peu pour comprendre que c’est totalement faux.



Et en parlant de niveau de vie, la France était un pays dont la qualité de vie était réputée dans le monde.


Le 30/12/2016 à 17h 09







aeris a écrit :



Bien gerbant, vous êtes prèts à n’importe quoi pour consommer ?…







Nous avons créé une économie qui a déshumanisé les conséquences de l’exigence.



Nous voulons une concurrence maximale pour obtenir le meilleur service au meilleur prix, ce qui implique un maximum de précarité et des salaires au plus faible.



Mais tout le monde a tendance à oublier que nous sommes tout a chacun les esclaves potentiels des exigences des autres.



Et ce système est un cercle vicieux. Moins nous serons payés, plus nous devrons acheter à bas prix, ce qui impliquera en retour d’être toujours moins payés et toujours plus stressés.



Un jour on nous expliquera qu’il faut accepter de faire travailler les enfants, de se passer de soins médicaux et de sacrifier les vieux. Que voulez vous ma bonne dame, il faut être compétitif…



Alors peut être quelqu’un réfléchira et se demandera si nous sommes vraiment né juste pour produire des merdouilles en plastique…


Le 30/12/2016 à 16h 54







Gilles.T a écrit :



Ha ha c’est génial,  les hystériques (ultra-libéralisme dans un pays où l’état s’accapare 57% des richesses ma bonne dame) n’en ont plus assez de décider que toute personne travaillant pour une autre est forcément exploitée, maintenant même la personne qui travaille en toute indépendance est exploitée. .. par elle même. Ce recueil de blagues ambulant.  <img data-src=" />







Demande toi un instant quelle est la cause de cet excès de fonctionnaire. <img data-src=" />



Demande toi pourquoi autant de gens font tout pour obtenir une place de fonctionnaire.



Demande toi pourquoi il y autant de lobbys qui s’opposent à toute simplification administrative.



La vérité, c’est que les gens veulent échapper au système privé et à l’esclavage.



Une fois qu’on a compris ce phénomène, on comprends ce qu’il faut faire pour y remédier.



Le système libéral est une machine à produire de la précarité. Et cela détruit la vie des gens.


Le 30/12/2016 à 13h 49







Gilles.T a écrit :



Je te rassure tu n’as pas dit tout ça,  mais disons que personne ne peut le savoir de toute façon puisque le terme “néo-libéralisme “n’a aucun sens et qu’on l’emploie à toute les choses pour désigner tout ce qu’on n’aime pas (du coup les étrangers qui font mieux que nous sont d’affreux neoliberaux).

Bref disons que là xénophobie transpire assez vite de ce terme même si c’est pas forcément voulu, mais ne te connaissant pas je ne ferai aucune supposition à ton sujet. ;)







Je ne vois pas le rapport entre xénophobie et rejet du libéralisme.



Le libéralisme ne rassemble pas les peuple, il les oppose et les confronte dans une guerre au “moins disant”.



Au faite, on dit “auto entrepreneur” ou “auto exploité” ?



Le 30/12/2016 à 13h 45

Ils rêvent chez Amazon.



C’est les chasseurs qui vont trouver une nouvelle vocation <img data-src=" />

Le 30/12/2016 à 16h 08







Cashiderme a écrit :



Les américains sont sortit de l’Euro ? <img data-src=" />







En votant pour Trump, les américains ont signifié qu’ils voulaient sortir de cette espèce de mondialisation ouverte qui n’est qu’un jeu de dupe.



Pareil pour les Anglais avec le Brexit.


Le 27/12/2016 à 20h 08







Commentaire_supprime a écrit :



Ils sont pas sensé être foutus dehors les britanniques ?



(Au passage, merci pour la claque que s’est prise la Livre Sterling, 15% de réduction immédiate sur mes achats de trains électriques, ça fait toujours plaisir. Continuez comme ça messieurs les Anglais, et votre monnaie sera alignée sur le Zloty polonais)







C’est beau les monnaies surcotées.



Evidemment, ça permet aux intellectuels bien payés d’acquérir un maximum d’objets importés.



Mais pendant ce temps, la classe laborieuse n’a plus de travail parce que le taux de change rends leur activité non compétitive.



Quelques années dans l’Euro ont fait péricliter une grande partie de nos industries. Simple question de temps avant d’être ruinés.



La question n’est donc pas de savoir si nous sortirons de l’Euro, mais quand.



Les Anglais et les Américains ont déjà compris…


Le 30/12/2016 à 13h 25

Excellente initiative qui permettra à ce titre de continuer à vivre et peut être à évoluer plutôt que de moisir sur une étagère jusqu’à la mort de ses programmeurs et de finir ensuite dans une poubelle.



Si vous êtes l’auteur de logiciels, pensez à les libérer avant qu’il ne soit trop tard.



Cela devrait être un réflexe dès lors qu’un programme ne se vends plus guère.

Le 29/12/2016 à 19h 42







luxian a écrit :



T’as tenté de télécharger un fichier en FTP depuis ton téléphone avec une prise ethernet ?



Le sans-fil est moins fiable, moins rapide, mais souvent plus souple que le câble :(







Clairement.



C’est pourquoi l’idéal c’est d’utiliser des câbles ethernet pour les postes fixes et du wifi pour les smartphones et tablettes.



Reste les cas intermédiaires comme les ordinateurs portables ou l’idéal est de prévoir la possibilité d’utiliser les deux solutions. Si on doit transférer de gros fichiers ou jouer en réseau, on connecte le câble. Pour un usage rapide, on reste sur le wifi.


Le 29/12/2016 à 15h 26







ProFesseur Onizuka a écrit :



Franchement moi aussi je privilégie toujours le fil au sans fil (rj45 plutôt que wifi), et je suis passé cette année à une souris sans fil, et bien je ne retournerais plus avec un fil, c’est aujourd’hui aussi réactif et léger (1seul pile AA). Bon à voir la durée de vie de la pile et si j’étais progamer j’aurai trop peur de la panne de pile en pleine compétition, mais pour un usage amateur c’est parfait <img data-src=" />







Moi aussi j’ai tendance à ne pas aimer ce qui est sans fil. Un bon câble ethernet, ça marchera toujours bien mieux que du Wifi.



Mais pour la souris, j’ai vraiment changé d’avis. Le fil à la patte, c’est vraiment trop chiant.



Le 29/12/2016 à 15h 13







luxian a écrit :



Tu me diras quelle souris sans fil tu employais, pour en être content dans tes jeux stp …







Pour ma part, j’utilise une “vieille” Logitech G700. Mais ils font peut être mieux depuis.





Pour ma part, sans être un gros joueur (je me détend bien encore avec une petite partie de 0ad, mais le temps ou j’arrêtais de jouer à 11h le lendemain matin s’est arrêté avec mes études) … et bien je ressent régulièrement des lags de ma souris sans-fil. Aussi bien Logitech (type MX ou autre) que Microsoft (5000, 2000) ou Lenovo X1 à 100 balles !





Les souris que tu cite ne sont pas dédiées au jeu, ce qui pourrait expliquer le problème. Les souris sans fil “bureautique” utilisent des algo d’économie d’énergie très agressifs pour que la pile puisse durer des mois. Par exemple, elles éteignent le capteur et l’éclairage de la cible pendant une fraction de seconde dès qu’elles détectent une absence de mouvement. Et pendant cette fraction de seconde, le mouvement n’est pas détecté.

Sur une souris sans fil “gammer”, ces algo peuvent être désactivés, mais le revers de la médaille, c’est que ces souris épuisent rapidement la capacité de leur pile (mais elles sont équipées de batteries). Par exemple sur la mienne, je doit impérativement mettre en charge ma souris tous les soir.





La suite bureautique MS Office requière une souris de plus en plus précise et …. sensible aux moindres perturbations ! Ca se remarque encore plus avec un écran en 4K !

Elle “lague” … ou on voit le pointeur arriver en temps avec un léger décallage par rapport au mouvement que l’on a fait (la différence entre une porshe et une clio qui font la course entre 2 feux rouges : la porshe - votre main - accélère plus vite et freine au dernier moment … la clio, imaginez …… ben la souris fait pareil que la clio).



Pour ma part, je coupe systématiquement le Wifi de mon téléphone quand je travaille, ou bien je le positionne à l’opposé de la souris sur le bureau.

Item, j’ai aussi remarqué que son activité 3G/4G (rafraîchissement de mail) perturbait la souris ! … il faut vraiment faire attention … mais ça se remarque.



Tout ça pour dire que la seule souris que j’ai trouvé réellement efficace jusqu’à maintenant … c’est une bonne vielle souris de base port PS/2 avec le rate à 200 rafraîchissement / seconde !!!





Sur la G700, ils ont utilisé un “dongle radio” spécifique et incompatible avec celui des souris bureautique. Ils fournissent aussi une espèce de rallonge USB pour positionner ce dernier au plus près de ta souris.



Après, c’est sûr que les souris sans fil dédiées au jeu ont l’inconvénient de coûter une blinde par rapport à de bons modèles filaires. Si tu achètes un jour ce type de souris, je te conseille de l’acheter sur le web pour pouvoir la retourner au cas ou tu n’en serais pas satisfait.


Le 28/12/2016 à 20h 23







ludo0851 a écrit :



Comme 99.99% des souris estampillées “G4m3rZ”









Obidoub a écrit :



Les gamers n’aiment pas les périphériques sans fil.







De nombreux modèles de souris sans fil adaptés aux joueurs existent sur le marché.



J’ai beau être un vieux joueur averti et un amateur de FPS très rapides (oui, les vrai jeux old school, pas les trucs “consolisés”.) qui a gardé son écran cathodique très longtemps à cause de ça. Et franchement, les souris sans fil une fois qu’on y a goûté, on ne reviens plus en arrière. Plus de fil à la patte pour contrarier les mouvements de la souris, c’est un gain de précision.



Après, oui, c’est vrai que les joueurs professionnels n’aiment pas le sans fil et l’on peut y voire au moins une excellente raison : dans les compétitions, il suffirait d’un simple brouilleur activé au bon moment pour faire décrocher une souris sans fil au moment fatidique. Mais cela ne concerne qu’une catégorie de joueurs bien spécifique.


Le 28/12/2016 à 12h 56







ProFesseur Onizuka a écrit :



Plus c’est compact, moins la chaleur est évacuée facilement, et donc plus la durée de vie est courte <img data-src=" />







Tout à fait exact.



Par exemple, des condensateurs, même d’excellente qualité peuvent avoir une durée de vie qui peut varier entre 5000 et 500000 heures en fonction de la température de fonctionnement.



D’où l’intérêt des gros boîtiers bien ventilés qui permettent à la fois d’avoir une excellente ventilation, mais aussi des nuisances sonores réduites grâce à de nombreux ventilateurs de grand diamètre tournant lentement.



Le 28/12/2016 à 12h 50







durthu a écrit :



Wife acceptance factor ?







Dit autrement, une bonne grosse tour PC, ça fait un bon test pour détecter les personnes superficielles et/ou pas suffisamment cultivées pour dépasser les clichés par rapport au regard des autres.


Le 28/12/2016 à 12h 12







Mitsurugi a écrit :



Pour ton bonheur en ce qui concerne la souris :https://www.jeuxvideo.com/news/514248/the-z-une-nouvelle-souris-gamer-financee-p… <img data-src=" />







Même pas sans fil… <img data-src=" />


Le 28/12/2016 à 12h 10







Presence Numerique a écrit :



Etant donné les dimensions affichées, je ne trouve pas ce boitier spécialement compact.







On ne peut pas le dire car l’article manque d’info.



La compacité d’un boitier de PC fixe ne s’apprécie pas seulement en fonction de ses dimensions extérieures, mais aussi et surtout en fonction des standard de taille des composants utilisés.



Un boitier très compact avec une alim standard et une carte mère full ATX est forcément plus gros que son équivalent sur du standard Mini ITX…





Le 28/12/2016 à 10h 52

Il manque des informations importantes dans cet article.



Ce qui est primordial pour un bon PC de jeu, c’est de savoir si les composants utilisés sont standard ou non(Carte mère, alimentation, ventilateurs, etc…). Parce qu’en cas de panne hors garantie, avoir des composants standard permet une réparation rapide et à moindre frais…

Le 28/12/2016 à 12h 11







fred131 a écrit :



Incroyable, désormais c’est officiel les fonctionnaires sont des “sous-citoyens”.



Dans le privé, ils peuvent choisir le papier mais dans le public c’est “vos gueules les mouettes!”.



Vu le nombre de fiches modificatives que je reçois chaque année, ça va être un beau bordel.







D’ailleurs, c’est amusant, de plus on plus de gens considèrent que survivre n’est pas un droit fondamental mais dépendrait uniquement de ce qu’une personne produit.



Bel échec de l’enseignement scolaire qui n’a même pas réussi à enseigner des rudiments de philosophie et d’économie malgré le temps que les élèves passent sur les bancs de l’école.



C’est d’ailleurs hallucinant de voir le nombre de gens s’offusquer des conditions de vie des animaux mais qui se foutent totalement de voir leurs chaussures fabriquées par des enfants.


Le 27/12/2016 à 15h 53







Jarodd a écrit :



C’est un discours idéalisé. J’ai mon vieux pc sous Ubuntu 12.04 parce que je m’en sers pour du traitement vidéo, et que le soft a été abandonné sur les versions suivantes (et le fork ne fonctionne pas bien). Donc je n’update pas juste pour ça. Hé bien, quand j’ai un souci (tout autre) et que je poste sur un forum, la 1e réponse c’est “faut mettre à jour”, même si cela n’a rien à voir avec le système. Pourtant il est LTS donc officiellement supporté pendant encore presque 2 ans, mais c’est uniquement le système, pas les logiciels. Donc le libre oui, mais n’est pas la panacée pour tous les cas.







On ne va pas non plus prétendre que dans le libre il n’y aurait jamais aucun problème.



Cela arrive effectivement qu’un logiciel ne soit plus intégré dans une distribution ou qu’il faille attendre un peu pour que le fork d’un logiciel abandonné devienne pleinement fonctionnel.



Mais d’une part ce genre de cas est plutôt exceptionnel. D’autre part, en cherchant un peu on trouve des solutions dans la majorité des cas.



Le libre n’est certes pas une baguette magique qui garantirait 0% de problème. Mais le fait de pouvoir disposer du code source est quand même ce qui donne à la communauté le pouvoir de débloquer la situation. Et c’est ce qui arrive dans la très grande majorité des cas quand bien même il faut parfois passer par une période de transition.



Je ne prétendrait pas que je n’ai jamais pesté parce que je devais recompiler un soft moi même. Mais au moins, j’avais la possibilité de le faire…


Le 27/12/2016 à 14h 12







boogieplayer a écrit :



Je suis gérant d’une entreprise SSII, je connait par cœur le prob pour avoir des clients de ce type/taille. Je pense que pour UGC c’est pas une question d’argent, c’est plus une question de volonté dans la politique d’entreprise, parce que les responsables sont peu ou mal formés à ces problématiques. Ils comprennent mal qu’in fine la maintenance d’un système trop ancien coûte plus cher que sa mise à jour, ça c’est lié à une gestion à court terme de ce type de dossier.







Ca, je te l’accorde.



Mais aller contre les idées reçues des clients n’est pas le meilleur moyen de remporter des appels d’offre.



Sans compter que dans les grandes entreprises, l’intérêt à long terme de la boite n’est pas toujours la préoccupation première des interlocuteurs.





Les informaticiens ne sont pas esclaves, c’est pas Zola ni le fond de la mine leur métier <img data-src=" />.





Ca se discute.



En attendant, la plupart des informaticiens ne réalisent pas les pièges à long terme de ce genre de métier. <img data-src=" />


Le 27/12/2016 à 13h 46







petitevieille a écrit :



L’utilisateur fait les frais du choix du format propriétaire, qu’on lui a imposé. Avec du Libre, on peut toujours avoir un système à jour, et néanmoins adapté à du matériel peu puissant. Avec du propriétaire, on est dépendant des décisions de l’éditeur.

Aujourd’hui, un vieux coucou sous un OS privateur, c’est dangereux.

Le même vieux coucou peut fonctionner sous un OS libre avec une interface légère, adaptée.

Quand on disait il y a 20 ans que le monopole d’un éditeur privateur est mauvais pour l’utilisateur… en voici un exemple.







Pour ma part, c’est sur le long terme que j’ai perçu les problèmes rédhibitoires inhérents au logiciel propriétaire.



Typiquement, on achète un logiciel… on s’en sers : Des créations, des données, du temps investi.



Puis ce logiciel n’est plus maintenu par l’éditeur… mais l’on peut continuer de l’utiliser pendant un temps.



Puis l’Os sur lequel tourne le logiciel devient périmé. Et le logiciel ne tourne pas sur la nouvelle version de l’Os.



Puis ce sont les machines compatibles avec l’Os qui disparaissent : Aujourd’hui, le nouveau matériel n’est plus compatible avec Windows XP.



Au final, on est obligé d’affronter l’épineux (et coûteux) problème de la migration comme une espèce de bombe à retardement que personne n’avait chiffré au départ.



Avec le logiciel libre, on rencontre beaucoup moins ces problèmes. Tant qu’il y a des utilisateurs, la communauté continue d’assurer la compatibilité et l’évolution des logiciels. Les formats ouverts et documentés permettent des ponts vers d’autres logiciels.


Le 27/12/2016 à 13h 19







boogieplayer a écrit :



Très bien. L’informatique c’est comme ça, que ça plaise ou non, il faut être à jour de ses composants logiciels, et faire l’effort d’abandonner les vieux. C’est chiant pour le particulier qui doit trouver de nouvelles habitudes, et pour les pros qui ont dev des softs.



Hier j’étais au ciné, UGC, l’une des bornes était plantée avec un blue screen of death bien old school.  Ce qui montre que les bornes qui me vendent mon billet et à qui je plug ma CB tournent sur des vieilles config sujettent à attaques. Ici widows XP <img data-src=" /><img data-src=" />







C’est bien joli, mais maintenir des systèmes à jour, ça coûte de l’argent.



Cela dit, si tu est prêt à payer ton billet (beaucoup)plus cher, c’est possible.



Mais ne désespérons pas, la nouvelle génération d’informaticiens qui travaillent en autoesclavage permettent déjà de réduire les coûts. <img data-src=" />











Le 27/12/2016 à 15h 12

Je suis agréablement surpris de voir ce genre d’article sur PCInpact. Tout particulièrement en cette période de fête.








Le 22/12/2016 à 22h 49







skankhunt42 a écrit :



Tu peut faire de l’électronique avec les deux, sauf qu’en pratique il te faudra ajouter un complément au pi pour en faire. Si tu branche un simple servomoteur avec un pi en iddle il aura la tremblotte car la gestion du pwm est désastreuse. Donc obligé d’acheter une carte i2c et de faire un système de communication entre les deux. Tu devra aussi avoir une autre alim pour avoir un courant correct. A chaque fois tu veut utiliser un composant c’est le même principe, c’est pas terrible. Tout ça pour des économies de bout de chandelles… 20ct la puce tout au plus.



Le zéro à l’avantage d’avoir le wifi et le bt ce qui permet d’éviter d’avoir à rajouter des dongle, surtout qu’en utilisation réelle le port usb sature assez vite et en général c’est le wifi qui lâche en premier.



J’ai bien compris que chacun à des usages différent mais il y à aussi des usages commun ! Perso mon pi il prend la poussière parce que c’est un peu la galère, et puis la update l’os j’ai la flemme… Je m’en serais bien servis comme nas mais devoir faire une partoche spéciale, monter les disques à la mano puis avoir un débit de 3mo seconde, c’est useless.



Personellement je préférais payer 10 / 15€ de plus pour avoir du i2c en natif, un contrôleur sata / usb 3, du wifi, du bt et une deuxième prise d’alim. Car l’avantage avec un pi utilisé dans différent projet si il ne sont pas simultané c’est de passer d’un appareil à un autre :)







En même temps, est t’il pertinent de comparer deux appareils qui n’ont pas du tout la même vocation ?



Il est évident qu’un ordinateur avec un Os “lourd” n’a jamais été l’outil adapté pour faire du pilotage de servo “temps réel” en électronique. Du moins pas sans lui adjoindre d’autres circuits…



Un Arduino est au contraire basé sur un microcontrôleur spécialement étudié pour cet usage. Il contient tous les circuits nécessaire. Mais d’un autre côté, il est très loin de la puissance de traitement d’un PI. Il est très loin également de sa capacité mémoire.



Le PI et l’Arduino ne sont pas interchangeables, ils sont complémentaires.





Le 22/12/2016 à 21h 50







Romaindu83 a écrit :



Peut-être… mais rien n’est sûr, même si c’est en site propre, sur des voies réservées et à petite vitesse. Tant que les constructeurs ne pourront pas démontrer la fiabilité de leurs systèmes de pilotage automatique, les autorités resteront frileuses. Et démontrer qu’un système de pilotage automatique est fiable en se contentant de faire rouler une voiture autonome sur un circuit long et ouvert (autrement dit, sur la voie publique, en compagnie d’autres véhicules et de piétons) ne suffira pas.



Tout le problème réside dans les algorithmes du guidage automatique. C’est de la programmation et les autorités le savent : il peut y avoir des couacs dans la programmation d’un système, quel qu’il soit. Et ces couacs peuvent avoir de dangereuses conséquences pour une voiture autonome. Et je ne parle même pas de la possibilité de pouvoir pirater à distance ces systèmes de pilotage automatique.



Encore aujourd’hui, malgré les évolutions faites dans ce domaine, les autorités préfèrent faire confiance à un conducteur humain, malgré que lui aussi ne soit pas fiable. Mais un conducteur humain sait réagir lorsque cela est nécessaire. Il peut anticiper la plupart des situations. Est-ce que l’algorithme d’un système de pilotage automatique peut rendre une voiture autonome aussi sûr, voire plus sûr qu’un conducteur humain ? Pour le moment, les autorités ont leurs avis là-dessus et se moquent éperdument de tous ces développeurs, informaticiens, professionnels et technophiles qui prétendent le contraire.





 

Mieux vaut prendre son temps avec la généralisation des véhicules autonomes, quitte à ce que cela mette 50 ans, plutôt que d’avoir de fâcheuses conséquences. Et puis, comme je l’ai dit, pour que des véhicules autonomes circulent, il faudra revoir les grandes règles de circulation au niveau mondial qui sont régit par la Convention de Vienne. Et chaque pays devra ensuite adapter son Code de la route en conséquence, en le solidifiant éventuellement, et donc, à fortiori, revoir la gestion des responsabilités en cas d’accident avec un véhicule autonome.

 

Via ton ironie, dois-je comprendre que cette frilosité des autorités t’agace ou te fait bien rire ? Si c’est le cas, il faut que tu saches que la circulation des véhicules autonomes va changer bien des choses. Autoriser ceux-ci à circuler librement ne peut pas se faire d’un claquement de doigt.







Peut être faudrait t’il rappeler que la plupart des avions modernes sont complètement gérés par des ordinateurs et la “programmation”. La confiance qu’on accorde aux automatismes est tel qu’on leur donne aujourd’hui la prédominance sur les actions des pilotes. Pour arriver à ce niveau de confiance, il y a des procédures de certification.



Une procédure de certification de plusieurs mois de tests impliquant de nombreux essais en situation reproduite, puis en situation réelle “sous surveillance” de conducteurs devrait pouvoir donner aux autorités suffisamment d’éléments pour savoir si on peut faire confiance à ces automatismes.



Quand au risque de piratage, il est très simple a gérer. Il suffit de ne pas relier les calculateurs en question au web…


Le 22/12/2016 à 21h 04







Romaindu83 a écrit :



Les véhicules autonomes sont-ils vraiment pour demain, comme le disent les observateurs ? A lire de plus en plus d’actualités, comme celle-ci, il semble que non. Certes, des prototypes de voitures autonomes existent et sont testés, sur des circuits fermés ou sur des circuits ouverts, comme les Google Cars aux Etats-Unis. Certes, la France vient de se doter de son premier centre d’essai pour véhicules autonomes (le CEVA) à Linas-Monthéry.



Mais… les autorités de tous les pays restent encore très frileuses quand à l’utilisation de tels véhicules sur les voies publiques. Ainsi, aux Etats-Unis, les Google Cars sont autorisées à rouler sur les voies publiques uniquement si un conducteur peut reprendre le contrôle du véhicule si nécessaire. Et tous les Etats n’ont pas donné cet accord. En France, les autorités n’envisagent toujours pas dans un avenir proche ou lointain d’autoriser la circulation de véhicules autonomes sur les routes.



Malgré l’intense lobbying qui existe dans ce domaine, notamment aux Etats-Unis, les constructeurs devront démontrer que le risque 0 n’existe pas avec ce type de véhicules. Ils devront démontrer que leurs systèmes de pilotage automatique ne présentent aucun risque pour le conducteur, ses éventuels passagers, pour les autres les véhicules et, bien sûr, pour les piétons. Des questions sont également toujours sans réponses, notamment en ce qui concerne le Code de la route et la gestion des responsabilités en cas d’accident, qu’il soit mineur, grave ou mortel.



Bref, certains annoncent la généralisation des véhicules autonomes dans moins de 10 ans. Ceux sont des rêveurs, des technophiles qui veulent mettre la charrue avant les boeufs. Les plus positifs estiment que la généralisation des véhicules autonomes devrait  débuter (et seulement débuter) à partir de 2030. En attendant, il faudra revoir la Convention de Vienne, qui régit les grandes règles de circulation au niveau mondial. Et cela ne sera pas une mince affaire de le faire, car tous les pays devront se mettre d’accord.







Il est assez normal que les autorités prennent des précautions avec des technologies qui sont aujourd’hui encore en phase expérimentale. C’est d’ailleurs nécessaire pour éviter des accidents marquants qui pourraient générer des peurs et un rejet.



Mais dès lors qu’un fabricant pourra argumenter de manière chiffrée sur un taux d’accident bien inférieur à ceux de la conduite humaine, le débat prendra de l’ampleur.



Combien de temps pour voir la conduite autonome se généraliser ? Pour ma part, je rappellerais que dans le monde de la technologie, tout ceux qui se sont amusés à faire des spéculations dans un sens ou dans l’autre se sont souvent trompés.


Le 22/12/2016 à 16h 12







manu0086 a écrit :



J’en ai marre de lire les mêmes conneries! Ce n’est pas une tendance volontaire de la part des industries! Cela s’appelle l’évolution!

Tu aimerai revenir à l’âge de pierre où tu peux réparer (et même construire, trop top méga génial) toi-même tes outils ?



Faut arrêter de croire que c’est un but purement commercial de rendre les produits difficilement démontables! Les raisons sont techniques en trés grande partie! La miniaturisation y est pour beaucoup, et tant mieux!



Vous êtes du style à regretter vos grosses tours pc au profit des tablettes pour naviguer sur internet…. votre mauvaise foi est gerbante!







Pour ma part, je préfère largement surfer sur internet avec un vrai PC muni d’un grand écran 28” haute résolution que sur une tablette avec son écran riquiqui et son CPU limité.



Quand à nos “grosses tour PC”, elles ont l’avantage irremplaçable de bien ventiler, d’être très silencieuses tout en étant extrêmement puissantes. En plus, on peut évoluer facilement sans tout remplacer. Et en cas de panne, on peut dépanner très rapidement et pour un prix modique.



A toi de te demander pour qui l’informatique “intégrée” est vraiment un progrès <img data-src=" />



Le 22/12/2016 à 15h 58







A-snowboard a écrit :



J’ai pas spécialement de vision tranchée, sinon je ne serai pas en train de poster des commentaires ici et je n’aurais pas d’ordinateur. (ou alors limité à la stricte utilisation professionnelle)



Ce que je veux surtout dire dans mes propos, (réponses précédentes), c’est que l’on à trop tendance à pousser à la consommation pour être écologiques, alors que pas mal d’éléments lié à l’écologie peuvent être fait sans “consommer”.



J’ai parlé de l’exemple du bâtiment bien exposé, agencé et ventilé pour minimiser la consommation de base.

C’est cette non consommation d’énergie, qui est bien plus écologique que d’acheter une climatisation ou un radiateur, bien qu’il soit basse consommation.



Et dans tous les domaines, tu as des exemples de ce style : enlever la cravate plutôt que de mettre la clim.

Mettre un pull l’hiver.

Tu peux prendre des produits locaux pour manger, ça nécessitera bien moins d’énergie que de prendre des tomates qui viennent d’Espagne fussent-il cultivés dans un environnement bio avec tous les derniers outils qui permettent de réduire la consommation.

Dans un cas tu consomme de l’énergie et tu utilise des outils pour essayer de baisser cette consommation d’énergie, dans l’autre cas, tu ne consomme pas l’énergie distant vu que c’est directement produit sur place.



Et Meme si on mange des fraises en février. Si tu prends des fraises locales, tu consommera moins d’energie que si tu prends des frais en espagne car t’auras le trajet en camion.

Et vaut mieux prendre le local, que de faire un transport de camion même s’il est électrique car tu te dispense d’utiliser cette énergie.

(Bon apres à voir, si t’es au pôle nord Et que tu veux des fraises, c’est peut être plus ecolo de les faire importer que d’en faire sur place, et encore ^^ )



etc







Je comprends beaucoup mieux ce que tu veux dire et je partage ton opinion.



Entre l’écologie utilisée comme prétexte pour pousser au renouvellement de nombreux biens de consommation(exemple : automobile) et tous les label “bio-truc” qui tendent à faire oublier des considérations importantes, il faut savoir garder son esprit critique.



Dans le même ordre d’idée, on peut se demander ou est la logique quand on voit qu’une vieille twingo essence avec injection et catalyseur n’a plus le droit de rentrer dans Paris mais qu’un 4x4 diesel de grosse cylindrée sortant de l’usine peut venir y cracher sa fumée sans vergogne.


Le 21/12/2016 à 22h 42







A-snowboard a écrit :



On en revient au même, mais pousser à la consommation, écologique ou non, ne feras rien avancer. Au pire on repousse le problème.







Dans la vie, il faut se garder des visions tranchées.



Consommer ne se limite pas a l’inutile : on consomme pour se nourrir, on consomme pour se soigner, on consomme pour l’indispensable. Même le plus acharné des écolo consomme.



Et même en parlant de loisirs, il faut se garder de l’idée qu’on pourrait se passer de tout.



L’idée de produire des objets durables, c’est tout l’inverse de pousser à consommer pour consommer. C’est faire un équilibre de sagesse pour consommer de manière beaucoup plus raisonnée tout en gardant un maximum d’avantage.



D’ailleurs au passage, le problème écologique ne se limite pas à la consommation. Le problème écologique comprends également la surpopulation humaine et de nombreux problémes d’ordre politique : par exemple un système qui oblige à travailler pour vivre, donc à produire pour produire.


Le 21/12/2016 à 20h 50







A-snowboard a écrit :



La meilleure écologie/économie : c’est celle qu’on consomme pas.

Le reste n’est que fumisterie.







En attendant, ça serait déjà bien beau si l’humanité prenait conscience de l’intérêt de consommer mieux.







trekker92 a écrit :



d) cette tendance à l’anti-démontable va se propager très vite sur le secteur technologique : l’ère du geek qui démonte tout est révolue, on en est à la consommation de masse :

soit vous acceptez (comme le commun des mortels aujourd’hui, qui depuis quelques années remplace, ne répare pas)

soit vous allez en douiller psychologiquement pour réparer, car la stratégie est de vous en empecher.

soit, vous achetez pas. Mais un geek a besoin d’un écran, c’est vrai :) :)







Dans un monde capitaliste, la ou il y a un marché, il y aura toujours des industriels pour y répondre.



Certes, on voit d’une côté ce mouvement évident vers des appareils toujours moins démontables pour le grand public.



Mais de l’autre, on trouve aussi de plus en plus de produits spécifiquement élaborés pour les besoins du connaisseur. Et le marché du DIY est en pleine explosion…



Aujourd’hui, pour ceux qui veulent fabriquer leurs propres appareils, on trouve tout ce qu’il faut. Ce n’était pas aussi simple par le passé.



Mais pour tout dire, quand on connait l’histoire de l’informatique, on peut se demander si c’est vraiment une bonne idée de faire fuir les geeks… et leur créativité.


Le 21/12/2016 à 04h 47







Anikam a écrit :



Hmmmm. Pas sûr qu’une vieille bagnole et son V8, son vrai carburant, ses quarante piges et son million de kilomètres soient plus dangereux qu’une bagnole à micromoteur Turbo Déchet, mise à la casse tous les 8 ans à même pas 200 000 km.

On n’en parle jamais, mais recycler les bagnoles et recréer acier, métaux, peintures, plastiques… tout cela a un coût pour l’environnement.







L’industrie justifie éternellement son gâchis écologique en parlant du recyclage alors que la vraie réalité, c’est que ça ne fonctionne pas si bien dans la pratique.



On pourrait épiloguer longuement sur le pourcentage de nos déchets qui sont réellement recyclés. On serait bien avisé de regarder mieux ce qu’il en est dans la réalité.



Effectivement, on oublie de dire que le recyclage peut générer de la pollution et que certains traitement sont coûteux en énergie.



Et la vérité, c’est que le recyclage, ça n’est pas miraculeux : les aliages se poluent, les “métaux rares” sont difficilement récupérables, les plastiques de récupération dont la composition est extrêmement diverse et qu’il n’est pas toujours évident de reconnaître peuvent difficilement servir à la production de bien neufs de qualité.


Le 22/12/2016 à 14h 38

En voila une excellente idée. Je dirais qu’ils ont tout compris sur la façon dont un logiciel libre doit fonctionner et évoluer.



Ils se donnent la possibilité de coller aux habitudes des gens qui ont été déformés par les choix contestables et imposés de certains logiciels propriétaires. Le tout en respectant les préférences ergonomiques des autres.









Boblamouette a écrit :



Pour moi ce sont les menus déroulants qui sont devenus une hérésie en 2016. C’est quand même le système le moins ergonomique du monde.



Comme quoi chacun son truc.







Moi je ne suis pas du tout d’accord. Je préfère de très loin les menu déroulants.



Les rubans occupent une place folle à l’écran et ça devient rapidement bordélique dans un logiciels avec beaucoup de fonctions.



Mais comme on dit, chacun doit être libre d’avoir tort… <img data-src=" />


Le 19/12/2016 à 23h 17







sat57 a écrit :



Il faudrait commencer a s’interroger sur le réel niveau de la presse et la crise qu’elle traverse. On arrive a un point ou l’ensemble de la presse française reprends les dépêches de l’AFP sans vérification.

Les articles bidons sont révélatrices de cette crise. Pas de contrôles, pas de vérification des sources. Limite ils reprennent des articles wikipedia.







Hélas, la presse subit exactement les mêmes problèmes que le reste de la société.



Le chômage galopant a abouti à l’émergence d’une concurrence féroce. Cette concurrence féroce divise les sources de revenu et pousse les prix à la baisse de manière outrancière.



Tout cela aboutit à l’insuffisance de moyens financiers. Pour vérifier les sources et créer du vrai contenu, il faut du temps, donc de l’argent.



Le 19/12/2016 à 22h 47

Bon article, qui viens un peu tard, mais qui a au moins le mérite de montrer à tous les naïfs comment fonctionne vraiment le web d’aujourd’hui.



Le vrai paradoxe, c’est qu’en croyant fabriquer de la liberté d’expression, le Web est finalement devenu la plus grande machine à manipuler et désinformer jamais inventée par l’homme.



Un vrai paradis pour le marketing et les lobbys de tous bords puisque l’image et la célébrité d’un produit peut se fabriquer de toute pièce avec de l’argent. Cela est aussi vrai pour les opinions.



Et pourquoi s’en priveraient t’ils ? En pratique, il n’y a presque aucun risque à le faire. Les condamnations sont anecdotiques, voire inexistantes dans la réalité. Quand bien même on voudrait pénaliser, c’est quasiment impossible à prouver. On ne peut même pas perquisitionner les entreprises qui offrent ces services, leur siège sociaux et leurs serveurs étant hors de notre juridiction.

Le 18/12/2016 à 23h 49







127.0.0.1 a écrit :



Encoure tu aurais dit Phenomena, Equinox ou Kefrens… mais là… <img data-src=" />



Bon je t’accorde Psygnosis, pour Shadow of the beast et Blood Money.







Ces deux jeux étaient surtout un bon exemple de ce qui arrive quand on se perds dans l’obsession technique pour en mettre plein la vue… en oubliant le gameplay.



D’ailleurs, avec le temps on mesure mieux à quel point il n’en reste rien. On rejouera plus volontier à un Lode Runner, M.U.L.E ou PacMan qu’a Shadow of the Beast.


Le 18/12/2016 à 23h 07







Cashiderme a écrit :



Les vraies démos se codaient sur 8 bits, pas sur des machines d’assistés <img data-src=" />







Pourquoi les 1632 auraient t’il été des machines d’assisté ? Ils étaient techniquement plus complexes et permettaient de faire plus.



S’il y a eu une perte de créativité évidente entre les 8 bits et les 1632, c’est parce que le monde du logiciel est passé de l’ère artisanale à l’ère industrielle. Une industrie ne prends jamais le risque d’innover quand elle peut se contenter de cloner les recettes qui marchent…


Le 17/12/2016 à 20h 49







CernelPanik a écrit :



Franchement grosse déception pour moi avec Nvidia qui ne veux pas mettre a jour leurs drivers Legacy pour fonctionner avec Wayland , je serais obliger de passer sous Windows.



Et je ne peux pas compter sur Nouveau vu que je n’ai pas seulement de mauvaises performances avec , ils ne marchent tous simplement pas pour moi , j’ai des freeze et des lockups avec ma G92.



Et avec X.org qui changent leurs standards a chaque version je vois bien Nvidia qui va dire Fuck It pour les drivers Legacy et je ne pourrais meme plus utiliser Linux.







C’est le problème des drivers propriétaires sous Linux. Le modèle de développement de cet Os est organisé sur la base de code libre qui peut évoluer, pas pour gérer les contraintes du code fermé qui ne le peut pas.



Avec les drivers proprio, ça fonctionne tant que les matériel est supporté par le constructeur. Mais dès que ça n’est plus supporté, il faut songer à changer de matériel.



Bref, si on veut garder son matos longtemps sous Linux, il faut éviter tout matériel qui n’a pas de driver libre correct.


Le 17/12/2016 à 20h 09







romainsromain a écrit :



Le PS n’est pas de gauche, je sais pas combien de fois faudra le répéter .. le PS est un parti de droite … centre droite peut être mais un parti de droite.



Je suis pas un grand fan de marine le pen ( cf ci dessus ), mais force est de constater que LR et PS ont une continuité dans la politique appliquée depuis 15 ans







Clairement, le PS est bien devenu avec le temps un parti de droite.



Je te rejoins sur le fait qu’a part quelques détails presque anecdotiques, le PS et LR font en pratique sur le terrain une politique extrêmement similaire.



Quand au FN, c’est un mélange incompatible d’une mouvance identitaire et d’une mouvance souverainiste. C’est un parti incohérent. Au mieux ça finira par se disloquer. Mais le vrai problème, c’est que s’ils accédaient au pouvoir, il est difficile de prévoir quelle politique ils appliqueraient vraiment. Cela dépendrait beaucoup des personnes placées aux postes clés.







Le 16/12/2016 à 07h 50







sarbian a écrit :



Il y a une chose que je n’ai jamais aimé dans cette initiative : le nommage. Ils cachent des projets opensource  derrière leur framaXXX et même si on peut trouver le nom du soft original rapidement c’est dommage de ne pas le mettre en avant le projet original.







+1



<img data-src=" />