votre avatar

KP2

est avec nous depuis le 15 mars 2006 ❤️

5589 commentaires

Le 18/03/2015 à 09h 19







labenouille a écrit :



Fixed. Parce que les généralités marchent dans les deux sens ;)







Prends une CM de 2002 et dis moi si le contrôleur USB marche encore par exemple… C’est meme probable que ca ne boote meme pas.

Au mieux, t’auras un mode dégradé avec les pilotes génériques intégrés a windows mais t’auras pas les pilotes du constructeurs pour Win8, c’est une evidence.



Sous Linux, ca marchera a coup sur. Et ca, c’est pas une généralité, c’est la réalité.



Prends des vieux modem ADSL Usb, je te mets au défi d’en faire marcher un vieux de 10 ans sous un windows recent. Sous linux, c’est plug&play.

D’ailleurs, y’a certains modem comme la bonne vielle raie manta verte fournie par Orange a une époque qui n’a jamais vraiment bien marché sous windows. Sous Linux, un mec a pondu des drivers en reverse-engineering qui étaient meilleurs que ceux du constructeurs.


Le 18/03/2015 à 09h 13

+1000



Linux est bien plus répandu aujourd’hui que Windows. Largement…

Apres, en mettant a part l’embarqué, sur un site comme NXi, c’est pas étonnant d’avoir une grosse part de mecs qui touchent a Linux régulièrement (sans forcement avoir leur machine principale qui tourne exclusivement sous Linux).

Entre les développeurs qui ne travaillent aujourd’hui presque que sous linux, les enthousiastes et les geeks qui s’amusent avec du RasPi ou un petit dédié chez OVH, les professionnels qui touchent forcement a du Linux au boulot, ca peut aller vite…

Le 18/03/2015 à 09h 08







teddyalbina a écrit :



Le swap sert pour la restauration système, Windows inclus une infrastructure de snapshot très puissante et extensible en plus. Il faut désactiver la restauration système si tu veux pas qu’il l’utilise, après le swap c’est normal hein, si une page mémoire est rarement utilisée il peut le mettre sur HDD simplement parce que ça ne causera pas de perte en terme de perf et ça décharge la RAM qui est en quantité bien plus limité que le stockage de masse







Je suis désolé mais si ta RAM est pas pleine, ca sert strictement a rien de swapper… Sous Linux, on swap JAMAIS tant qu’il y a de la RAM dispo.

Quant a cette histoire de restau système, j’ai jamais vu un windows remarcher correctement après une operation de ce genre mais bon, j’ai probablement pas eu de chance <img data-src=" />


Le 18/03/2015 à 08h 13







ar7awn a écrit :



quand on sais que windows 10 supporte encore les lecteurs disquettes ça m’étonnerait.







La gestion d’un lecteur de disquette est un des trucs les plus basiques au niveau driver. Un étudiant qui veut apprendre a écrire un driver commence par ca généralement…

Alors crois moi, ca n’a AUCUNE espèce de valeur pour aucune demonstration possible.



Nan, serieusement, faut prendre des trucs un peu plus evolués comme des cartes graphiques, des cartes TV, etc

Essaye de faire marcher une bonne vieille Matrox sur un windows recent et tu m’en diras des nouvelles ou une carte TV genre Miro PCTV (obsolete depuis la TNT évidemment)…

Ne serait ce que certaines cartes meres un peu vieillottes, ca passe plus du tout sous un windows 8 contrairement a Linux.


Le 18/03/2015 à 08h 01

Ils ont un sacré effort a fournir au niveau de la gestion de leur fichier de swap… J’ai jamais compris pourquoi ce fichier était utilisé meme quand la RAM était quasi vide.

Pour flinguer un disque, c’est le top ca…

Le 18/03/2015 à 08h 00

Y’a 50 distribs differentes avec chacune une politique d’evolution differente, quelle distrib utilisais tu ?. Et quand tu dis “ne supportait plus mon portable”, ca veut dire quoi ? Y’a plus RIEN qui marchait ? Ca bootait meme plus ?

Quel periph ne fonctionnait plus exactement ?



Bref, je veux pas les réponses, je m’en fous a vrai dire. Ces questions purement rhetoriques servent a dire que tu peux pas utiliser TON cas particulier pour argumenter sur le cas general. Surtout pas en parlant de Linux en fait, y’a trop de diversité pour être aussi peremptoire…

Le 17/03/2015 à 17h 04







tazvld a écrit :



A si c’était si simple… Sur mon EeePC901, une version d’ubuntu spécial netbook d’installer dessus, le Wifi fonctionnait bien sauf si le protocole était en WPA….



En faite, c’est ainsi que j’ai appris que l’on a beau avoir 2 appareils strictement identiques sur le papier, réellement, les fabricants de composants n’arrête pas de changer les puces (sûrement grâce à de la microprogrammation) en fonction du marché. Et donc, pour une même cartes wifi/bluetooth, les puces qui sont réellement en dessous du shield peuvent être différentes.







Ca arrive quand le constructeur utilise 2 sources d’approvisionnement. Ca peut arriver pour plein de raisons : mise en concurrence des fournisseurs, fiabilisation de ses appro, manque de stock chez l’un donc on comble avec un autre, etc etc etc

On peut aussi avoir plusieurs versions d’un unique modele parfois a qq mois d’intervalles ou dans différentes zones géographiques (pour le wifi typiquement, c’était lié au fait que les réglementations d’une zone a l’autre pouvaient changer et que les puces n’etaient pas toujours multi-standards)


Le 17/03/2015 à 16h 59







Konrad a écrit :



Sous Linux s’il y a des problèmes c’est parce que le pilote n’existe pas dans 99% des cas.

Mais quand le pilote existe, il n’y a pas besoin de redémarrer 2 fois pour installer un matériel.







Ca fait quand meme un bout de temps que la quasi totalité du matos est reconnue sous linux. Faut arrêter avec le FUD…

De plus, là ou linux se démarque sérieusement de Windows est que le “vieux” matos est toujours aussi bien reconnu sous linux. Meme des pieces qui peuvent avoir 15 ans. Et meme parfois mieux que sous windows…



Sous windows, les pieces fonctionnent bien avec le windows du moment et parfois le suivant mais au dela, tu peux mettre ton truc a la poubelle.


Le 17/03/2015 à 16h 54

Fait des recherches sur “deflate” et “zlib” au sujet des cpu intel et tu trouveras plusieurs papiers interessants.



Les proc ARM sont bien dotés aussi a ce niveau

Le 17/03/2015 à 16h 11







Aloyse57 a écrit :



L’autre point est la compression : c’est bien beau, mais ça tire sur le CPU et multiplie les accès disques.







Pas du tout !



Les CPU ont depuis longtemps des instructions spécifiques pour la compression. C’est quasiment invisible aujourd’hui de travailler sur des fichiers compressés ou non.

Quant aux acces disques, c’est l’inverse justement : comme tu vas lire et écrire moins de données, tu fais moins d’accès.


Le 17/03/2015 à 16h 04







Thoscellen a écrit :



Je suis quand même surpris qu’un OS en vienne a peser 20 Go sur un appareil. Qu’est-ce qui prends donc le plus de place ?







Les milliers de drivers obsoletes embarqués et les dizaines de libs obèses (.net, dx, etc)


Le 17/03/2015 à 10h 56







SebGF a écrit :



Ils sont chiants a pas vouloir crever alors que ça fait 20 ans que tout le monde dit qu’ils vont mourir, un petit effort bordel!!!







<img data-src=" />


Le 17/03/2015 à 09h 45







brice.wernet a écrit :



C’est clair, pour le moment je pense même à autre chose: des petits jeux “compagnons” qui se synchronisent avec tes jeux 3DS/Wii U, par exemple via leur site internet.







Tout a fait…

Genre un éditeur de Mii ou des trucs comme ca.

Pour moi, au mieux du mieux, ca sera equivalent aux jeux pourris StreetPass (le truc ou on s’échange des pieces de puzzle et l’autre dans le chateau) avec un petit coté “social” un peu nul et rien de plus.







brice.wernet a écrit :



Ce qui signifie en gros: pas de “vrai” jeu sur mobile, mais juste un hameçonnage.







Exactement.


Le 17/03/2015 à 09h 11

Ca m’étonnerait qu’on voit un jour un portage d’un Mario sur autre chose qu’une console Nintendo…



A mon avis, cet accord va donner des espèce de dérivés de pseudos jeux un peu nuls (genre des puzzle, des tictactoe aux couleurs des persos Nintendo) mais surement pas des portages de jeux existants ou de nouvelles versions de mario kart ou mario land…

Le 12/03/2015 à 17h 32

Effectivement, le surpoids des jeux a toujours existé…



Je me souviens d’une epoque ou des jeux faisaient 200-300Mo alors que le disque dur moyen installé chez les particuliers etait de 1 ou 1,2Go. Ca faisait mal car il fallait faire du menage et les graveurs de CD coutaient chers…

Le 12/03/2015 à 17h 29

C’est surtout triste pour les mecs qui ont encore des quotas…

Le 11/03/2015 à 12h 57



Il précise au passage que son livre est « presque terminé », mais ne parle plus de ses activités de formation ou de coaching, pourtant largement évoquées lorsqu’il annonçait quitter son poste chez Mozilla.





Ca, quoiqu’il en dise, ca veut dire qu’il a quitté son job sur un coup de tete (volontaire ou non, a son initiative ou pas) et qu’il savait pas trop quoi faire…

Et evidemment, un mec de sa trempe ne reste pas inactif bien longtemps.

Le 10/03/2015 à 09h 09

Elle remplace la Crystal qui n’a pas de lecteur BR…

La Freebox Revolution ne change pas.

Le 09/03/2015 à 18h 50

Ca depend : y’a un paquet de blaireaux bourrés de fric completement bling-bling…

A mon avis, tous les nouveaux riches chinois (et d’ailleurs) vont se jeter dessus. Ca fera une montre de plus dans leur collection.

Le 09/03/2015 à 18h 49

Ca sera depassé bien avant…



Moi, je trouve ca chelou de depenser autant d’argent dans un produit electronique… meme si il est en Or.

Dans une montre automatique, je comprends car c’est completement autonome, et pour peu que ca soit revisé de temps en temps, ca marche a vie.

Et meme si par malchance, ca marche plus, ca reste un beau bijou.



Avec un appareil electronique, quand ca marche definitivement plus au bout de 4 ou 5 ans, ben ca fait un ecran noir moche. Cool.

Le 09/03/2015 à 17h 57

Ca y est, Apple a fait son portable sans aucune connectique…

Le 09/03/2015 à 17h 12

C’est tres americain comme conf…

Le 09/03/2015 à 17h 08

Ouille, ca commence fort : HBO annonce son service de streming en exclusivité chez Apple…

Le 08/03/2015 à 10h 32

Ben je suis desolé mais quand tout un article dit blanc et que le mec en arrive dans sa tete a la conclusion que c’est noir, c’est qu’il y a quand meme un sacré probleme qqpart, nan ?

Donc pour moi, y’a que 2 solutions : soit le mec a des informations supplementaires que personne ne connait et ca serait assez cool qu’il partage, ca ferait un beau scoop pour NXI, soit il a un serieux probleme de comprehension/jugement/logique qui ne peut s’expliquer que par une sorte d’aveuglement haineux completement ridicule et injustifié.



Pour moi, c’est l’exemple parfait et typique du hater justement. Et crois moi, je n’utilise pas cette expression a la legere …

Le 07/03/2015 à 09h 39

Pourquoi tu dis ca alors que TOUT l’article explique justement le contraire ?



T’as des informations supplementaires ou t’es juste un hater de base ?

Le 06/03/2015 à 17h 45

Yeah !! A nous les sources de Babar et Casper pour voir si notre DGSE est aussi impliquee qu’on le croit !!!

Le 04/03/2015 à 08h 53

En fait, la vitesse et la qualité du stockage jouent beaucoup dans les performances globales d’une machine mais sur mobile AUCUN constructeur ne donne d’infos technique dessus a part le volume embarqué.

Mais c’est pour ca, en partie, que certains mobiles bas de gamme disposent de processeurs de malades pour 250 balles mais qu’ils n’arrivent tout de meme pas a etre plus reactifs et performants que certains mobiles 2x ou 3x plus chers avec un proc moins costaud sur le papier (l’iphone pour ne pas le citer par exemple).

C’est tout la difference entre une fiche technique et l’UX d’un produit concret

Le 03/03/2015 à 10h 59

Ah bah, le stripping, c’est genial pour les perfs mais coté risque de panne, c’est de la folie pure…



Il y a une epoque (je sais pas si c’est toujours d’actualité depuis que les SSD sont abordables) ou les gamers adoraient faire du RAID0 avec 2 HDD pour maximiser les perfs. J’ose pas imaginer la quantité de mecs qui ont perdu toutes leurs données a cause de ca…

Le 03/03/2015 à 10h 57

Bien sur qu’il y a des differences de qualité au niveau du stockage… Entre un HDD pro et un HDD domestique bas de gamme, tu as un risque de panne qui est multiplié par 10. Et les HDD sont des technos tres bien maitrisées…

Au niveau des SSD, la qualité de fabrication est encore plus importante et a cela s’ajoute la qualité des firmwares qui jouent un role fondamental sur la duree de vie du periph. Y’a qu’a demander aux clients d’OCZ se qu’ils en pensent…

Par exemple, sur un SSD pro, l’overprovisionning de cellules est d’environ 25% (voire plus) alors que sur un SSD domestique, il ne sera que de 5 à 7%. Un SSD pro est aussi fiable que son homologue magnetique (sinon plus).

C’est kif-kif pour la memoire flash.



Coté stats, le gros probleme des appareils bas de gamme, c’est que c’est du jetable donc quand ca ne marche plus, les gens l’oublient dans un tiroir ou le foutent a la poubelle. Donc on n’a pas de taux de retour fiables… Mais bon, faut pas rever…

Et c’est sans compter le niveau de support du constructeur qui “oublie” de faire des MAJ après 3 mois… si jamais il en a fait un jour.










Le 03/03/2015 à 09h 27

Les fusion drive, c’est encore different… Au moins, les 2 equipements utilisés pour le stripping sont de plutot bonne qualité.

Là, on parle d’un stockage bas de gamme avec des cartes sd encore plus bas de gamme… Autrement dit, c’est le meilleur moyen pour se garantir des pertes de données car en matiere de panne, le risque ne s’additionne pas, il se multiplie…

Le 02/03/2015 à 19h 24

Mon dieu… Du stripping entre du stockage interne et une carte microsd…

ceux qui vont utiliser ca auront intérêt d’avoir un sacrement bon backup.



Et quid des données quand on veut changer la microsd ? Ou la remplacer par une plus grande ?

A mon avis, ça va faire un paquet de merde cette histoire…

Le 02/03/2015 à 19h 22

C’est comme tout, dans le stockage il y a tous les prix ET toutes les qualités…

Tu peux pas comparer du stockage dans une tablette bas de gamme à 300 balles et du stockage d’un tel haut de gamme à 700-800€…

Le 04/03/2015 à 08h 44







David_L a écrit :



Tu peux mal résumer ma pensée et la déformer pour tenter de te donner raison hein. Cela ne change rien ni à ce que j’ai dit, ni à ce que je pense, ni au fait que tout ça n’a pas grand chose à voir avec la Ouya.







Dis moi si je me tompe mais j’ai l’impression que la ouya avait surtout comme objectif de “sedentariser” un mobile android pour jouer aux jeux existants sur la TV sans reelle autre ambition.

Alors que cette shield semble etre plus partie pour concurrencer de “vraies” consoles de salon avec une offre de jeux dédiés, natifs et, probablement a terme, exclusifs…


Le 04/03/2015 à 08h 38

Je sais pas si tu te souviens mais MS a mis plus de 5 ans pour entrer sur le marché… leur 1ere xbox a aussi fait rigoler pas mal de gens a l’epoque.



Faudrait peut etre leur laisser un peu de temps avant de juger.

Le 04/03/2015 à 08h 34

Les jeux actuels sont faits pour le mobile avec les defauts que tu donnes (quoique, pas pour tous)



Mais c’est un fait actuel car Android n’existe que sur mobile. Là, on a une nouvelle plateforme et un constructeur qui semble motivé pour passer des accords avec les grands studios donc une nouvelle race de jeux vont debarquer, c’est evident.

Le 04/03/2015 à 08h 32

C’est pas compliqué : Nvidia a payé pour le portage alors qu’Apple n’en a rien a foutre…

Le 03/03/2015 à 13h 11







ledufakademy a écrit :



La député UMP serait-elle en train de voir une distorsion dans la matrice ? ou alors sont-ils cons à ce point ? j’en doute fortement.

Mais où sont les experts en sécurité ? … ils sont déjà dehors ?











ledufakademy a écrit :



Elle ne vit pratiquement pas en France  !







Oui et alors ? Tu doutes de son patriotisme ? Quand on est franco-canadien, on est pas assez francais pour toi ?



Le 03/03/2015 à 11h 22

Elle donne un exemple de ce qu’une initiative privee, originale et innovante purement francaise peu donner… histoire de dire qu’il n’y a pas besoin d’une boite US comme Cisco pour ouvrir de nouvelles pistes.



Et elle a raison.

Le 03/03/2015 à 11h 20







tiny_naxos a écrit :



42 ? LOL

Il y a d’autres écoles de télécommunications / informatique…







42 a demarré y’a 2 ans, faut leur laisser le temps de s’installer… On passe pas de rien a une formation digne des meilleures au niveau mondial en 6 mois.



En attendant, c’est une initiative ultra originale, privee et franco-francaise. Elle merite une attention particuliere.

Mais le probleme en France, c’est que le gouvernement croit qu’il suffit de confier des millions a des types qui sortent d’une grande ecole de management pour fabriquer un champion mondial de toute piece. C’etait peut etre vrai a une epoque (et encore) mais ajourd’hui c’est une enorme erreur. On l’a encore vu recemment avec Cloudwatt et Numergy.

Mais le pire dans cette histoire est que non seulement on se trompe gravement sur la facon de booster l’economie numerique mais en plus, on trouve le moyen de snober des boites qui marchent fort et qui se sont debrouillées toute seules (probablement une sorte d’elitisme vis a vis des mecs qui partent de rien).

OVH, Free, Vente-privee, etc sont aujourd’hui les boites francaises les plus innovantes et les plus dynamiques dans le high-tech francais et ne sont JAMAIS associées au grands “plans” sur le numerique… C’est aberrant…

Au contraire, elles devraient etre draguées a longueur de journee mais non, on prefere les ecarter comme de vilains petits canards.


Le 02/03/2015 à 17h 50







FRANCKYIV a écrit :



Windows est parfaitement capable de prendre en compte EXT2,3,4,ReiserFS, etc …



Adresse Web :

http://www.toutes-les-solutions.fr/phpbb/topic2366.html



(pas d’origine, mais parfaitement capable … <img data-src=" />)









Nan mais faut etre serieux 5min : Windows est incapable de supporter autre chose que ses propres FS.

Quand on dit qu’un logiciel supporte une techno, ca veut dire que l’editeur a tamponné officiellement l’usage de cette techno avec son logiciel.

Quand c’est fait par des mecs qui sortent de nulle part sans aucun rapport de pres ou de loin avec l’editeur, c’est pas du “support”. C’est juste de la bidouille.



Y’a effectivement des projets de portage mais ce sont des trucs faits par 1 clampin qui code quand il a le temps, qui sont tres loins d’etre stables (perso, je mettrais meme pas une photo de mon voisin sur un montage avec ca) et tres loins d’etre 100% compatibles avec toutes les fonctionnalités du fs qu’ils sont censés implementer.

Rien que pour le lien que tu donnes, le projet ne gere pas le journal ext3. Autrement dit, LA fonctionnalité importante pour ext3 donc ca va necessiter un fsck du volume a chaque fois qu’il sera monté sur un autre OS…



Et la derniere release date de Aout 2014… super reactivité…


Le 02/03/2015 à 16h 13

Rien n’empeche de reformater une carte pour les utilisateurs avertis mais 99% des gens veulent un truc pret a l’emploi a la sortie de l’emballage donc, a un moment, il faut faire un choix…

Et comme Windows equipe 80% des ordinateurs de la planete et qu’il est incapable de comprendre nativement un autre systeme de fichiers que NTFS ou exFat alors le plus simple est de prendre exFAT comme choix par défaut.



C’est pas plus compliqué…




Le 02/03/2015 à 13h 53







A-D a écrit :



A quand des cartes SD haute capacité sans avoir à payer Microsoft pour son filesystem?



Actuellement SDXC == exFAT. Les cartes devraient pouvoir être vendues nues comme les disques durs et ainsi permettre à l’utilisateur de choisir son propre filesystem.







Oui mais il faut que l’appareil aussi soit capable de lire le systeme de fichier de la carte et pas seulement ton ordinateur… Or, je vois mal des appareils photos ou des cadres photos implementer 15 systemes de fichiers differents


Le 02/03/2015 à 11h 59

ah, le bon temps des microsd de 128Mo :)

Le 02/03/2015 à 11h 58

Probablement 256Go mais ils indiquent à 200Go car l’over-provisionning doit en consommer une bonne partie et n’est pas utilisable en tant que tel par l’utilisateur

Le 02/03/2015 à 15h 08

Putain, je trouve ca vachement grave… Paypal a toujours ete tres intrusif mais a ce point, c’est hallucinant…



Comment notre societe peut elle tourner si des intermediaires se mettent a jouer a la police privee ??

Le 02/03/2015 à 12h 56

C’est tout le genie des ayants-droits…

Le 02/03/2015 à 09h 24

Tout a fait et c’est d’autant plus etonnant…

Le 02/03/2015 à 09h 18

C’est marrant de voir des mecs se faire choper la main dans le pot de confiture et se transformer en chantres de la vertu et du “ne pas manger trop sucré ou trop salé”…

C’est vraiment du foutage de gueule. Et c’est tres américain comme attitude d’ailleurs… Bientôt, ils vont faire le tour des écoles et des prisons pour se fouetter en public et expliquer ce qu’il ne faut pas faire…

Le 28/02/2015 à 00h 10

Free a cherché a s’installer aux USA en racheter T-Mobile il y a peu… le rachat a capoté mais ca aurait ete un sacré coup..

Par contre, c’etait sur le mobile, pas l’internet fixe

Le 27/02/2015 à 19h 06







jinge a écrit :



Pas que les utilisateurs qui sont heureux (à vrai dire 95% des utilisateurs n’en ont rien à faire), c’est surtout les OTT qui sont les plus heureux, google, facebook & Cie. Ne pas avoir à payer pour de la bande passante c’est le bonheur pour eux puisque c’est là dessus qu’ils se font du fric.









Tu racontes n’importe quoi… les GAFA paient la bande passante. C’est pas gratuit, hein…

Et il existe des regles de peering pour les interco entre operateurs avec des systemes de compensation entre les flux qui entrent et ceux qui sortent.



Les couts de bande passante sont deja tres largement compensés pour les operateurs. Le gros probleme dans cette histoire, c’est pas une histoire de cout de la bande passante. C’est une histoire que les operateurs ne veulent plus se contenter d’etre de simples fournisseurs de tuyaux mais ils veulent aussi fournir ce qui remplit les tuyaux en question et qui rapporte beaucoup plus d’argent. Or, la neutralité du net est le principal rempart contre le verrouillage des clients donc ils vont devoir se battre sur un marche relativement ouvert au lieu de pouvoir le controler a volonté via la QoS et les accords commerciaux.



Apres, faut pas oublier que le marché de la bande passante aux USA est vraiment pourri. les grands operateurs se sont partagés le territoire et detiennent de reels monopoles sur leurs zones georgraphiques respectives. La bande passante est chere et de qualité moyenne la bas… L’obligation de neutralité du net est un moindre mal mais leur probleme est beaucoup plus profond…



Par contre, ca serait vraiment bien de consacrer ce principe en Europe aussi. Parce que je sens que nos operateurs (Orange en 1er) cherchent vraiment a faire le meme genre de chose.