votre avatar Abonné

ragoutoutou

est avec nous depuis le 25 juillet 2007 ❤️

3766 commentaires

Le 10/03/2013 à 10h 09







moxepius a écrit :



Dans ton document on y apprend que les SSD en test ont subit de nombreuse coupure de courant en pleins fonctionnement, mais on sait pas combien…





Ben faut lire le document, le nombre de coupures est marqué… par exemple le ssd qui a perdu 30% de son contenu l’a fait après 8 coupures. et celui qui a claqué, 136.


Le 09/03/2013 à 13h 05







Nerdebeu a écrit :



Ca met surtout l’accent sur ce problème, qui du reste est aussi valable sur des disques mécaniques qui s’accommodent mal de coupures de courant violentes et répétitives.





Pas de la même manière… les disques durs peuvent rater des écritures, corrompre les données qu’ils sont occupés à écrire, mais pas avoir un problème massif d’intégrité suite à une coupure… ici, on voit que bon nombre de ssd ne sont pas capables de maintenir leurs structures sous-jacentes avec des transactions saines.


Le 09/03/2013 à 10h 33







moxepius a écrit :



Avec le nombre de disque dur mécanique qui m’ont lâcher ces dernières année, c’est dans ceux là que j’aurais plus trop confiance.





Ah, les disques mécaniques, je m’en méfie aussi, mais si tu lis l’étude que j’ai mis en lien, tu verras que les ssd peuvent encore faire froid dans le dos: un faute logique liée à une panne de courant peut faire un désastre.


Le 08/03/2013 à 16h 43

Perso, je n’ai pas confiance dans les SSD comme système de stockage…. Pour de la cache, je ne dis pas, mais pour stocker, je n’ai pas confiance.



Et l’étude suivante me conforte dans ma méfiance.

https://www.usenix.org/system/files/conference/fast13/fast13-final80.pdf

Le 08/03/2013 à 18h 07







Drepanocytose a écrit :



Samba 4 prend l’AD en charge, non ?

Jamais essayé, mais je l’ai lu plusieurs fois.





Oui, c’est d’ailleurs par son biais que Free Ipa gère le trust.



Un des gros avantages d’AD pour windows est que ça gère et intègre le ldap, le kerberos et le dns… dans un ensemble cohérent et automatisé. FreeIPA offre un service similaire mais orienté Linux. Alors bon, FreeIPA n’est pas au niveau d’AD question qualité d’intégration et maturité, et il limite volontairement la richesse de certains outils sous-jacents, mais pour gérer un parc linux client-serveur, je n’ai pas encore vu mieux sans mettre sérieusement les mains dans le cambouis.


Le 08/03/2013 à 16h 39







CryoGen a écrit :



Il est marrant lui, au lieu de bosser comme des ouf sur l’interface, s’il veut vraiment passer dans le monde de l’entreprise s’est simple : alternative valable à Active Directory. Sans ce truc là c’est pas la peine d’espérer <img data-src=" />







Le truc le plus avancé dans le genre, c’est FreeIPA, de Red Hat… les dernières versions permettent même les trusts entre domaines IPA et domaines AD.



Sinon pour le reste, Mark Shuttleworth ferait bien de faire gaffe… c’est pas avec le budget de canonical qu’on fait un ubuntu, mais en attirant des geeks pour développer, adapter, intégrer et empaqueter les softs. Il veut être leader? soit, mais il ne faut pas oublier que son truc ne tient que grâce aux geeks, et à moins d’être prêt à payer une équipe beaucoup plus conséquente, il faut être capable de motiver les gens autour du projet pour qu’ils continuent à bosser gratos. Se moquer d’un certain élitisme de la communauté risque de faire fuir du monde, et pas forcément les pires.


Le 04/03/2013 à 12h 22

Quitte à mettre une sortie hdmi, ils pourraient aussi le fourguer avec une commande à distance…

Le 04/03/2013 à 12h 01







tchevalier a écrit :



Mozilla a interprété la spécification d’une façon différente des autres éditeurs qui s’est avérée plus appropriée. Mieux ?







Nah, ils ont juste décidé de pas faire les feignasses et ont regardé plus loin que les “must”…



En général, ne pas regarder que les must permet aussi de saisir l’intention derrière la norme et d’anticiper ses évolutions. ça permet d’avoir une analyse plus juste dès le départ et d’éviter de devoir jeter des brouettes de code quand la norme évolue.


Le 03/03/2013 à 15h 12







titinux a écrit :



Si on utilise l’ipv6 on a l’intro de l’épisode VI <img data-src=" />





En IPv6, tu peux publier toute les deux trilogies an 4k avid encodé en base64


Le 01/03/2013 à 23h 07







Emralegna a écrit :



On ne change pas de résolution sur les écrans LCD, on étire/rétrécit l’image.







Techniquement c’est pareil sur les CRT… le pas de masque na change pas magiquement en changeant la résolution. La différence est qu’au lieu de passer par une méthode d’étirement par interpolation, le CRT étire ou contracte via une altération du balayage, mais le pas de masque reste constant.


Le 01/03/2013 à 12h 45







Grebz a écrit :



mais les CRT présentaient l’énorme avantage de pouvoir changer de résolution sans perte de qualité d’image, contrairement aux LCD.





ou pas… en baissant la résolution, on se retrouvait avec des lignes de balayage plus espacées… Et le pixel était loin d’être bien carré. En montant la résolution, on se retrouvait avec une image baveuse.



Sérieusement, le CRT était une horreur pour les activités bureautiques et le développement, surtout qu’avec l’évolutions des IDE, il fallait toujours pousser la résolution plus loin, et ça crevait de plus en plus les yeux (micro fluctuations dans le balayage, scintillement, flou, …)


Le 01/03/2013 à 15h 39

si j’ai bien compris, on a





  • la “façon valve” (cfr Bleszinski) où en multi on risque de se retrouver face à un gars avec un costume “dlc” le rendant plus unique



  • la façon EA où en multi on risque de se retrouver face à des adversaires avec des armures plus costaudes et des armes plus balèzes avec une plus grande portée qu’on aura plus de mal à battre sans mettre aussi la main au porte-feuille.



    Non, il n’y a pas de différence…

Le 27/02/2013 à 19h 05







bzc a écrit :



Ce n’est vraiment pas si simple, là tu ne compte pas le sysadmin qui s’en occupera, le deuxième serveur si tu veux un minimum de redondance, la facture électrique, l’UPS pour la redondance électrique, le backup, etc … (oui il faut comparer à service équivalent).







Oui, mais à côté de ça, il y a aussi le fait que le cloud est également faillible… et un plantage du même style que samedi passé avec Azure (problème de renouvellement pki) pourrait prendre des dimensions désastreuses au niveau de l’économie mondiale si le cloud était adopté massivement par les entreprises. Le cloud a une dimension “tous les oeufs, de tout le monde dans un même panier”.



A côté de ça, il reste aussi les problèmes de confidentialité…



Et enfin, avoir un système cloud ne devrait pas dispenser d’avoir un backup.


Le 22/02/2013 à 13h 56







sylware a écrit :



Une prison numérique ne devrait pas avoir le droit d’être vendue.







Tant que ça se vend… l’important dans la vie moderne est de bien choisir sa prison.


Le 22/02/2013 à 13h 42







gogo77 a écrit :



Je sais pas pourquoi tout le monde s’énerve pour la rétrocompatibilité à chaque fois. Ça n’a jamais été quelque chose de systématique dans le monde des consoles. Est-ce qu’on criait quand on a au des Super Nes qui ne lisaient pas les jeux de NES



ça se réglait avec un adaptateur pour cartouches NES… <img data-src=" />


Le 22/02/2013 à 13h 04







JohnCaffey a écrit :



En gros, vous abondez dans mon sens ( avec plus de précisions)…<img data-src=" />



Effectiveent, je les voient mal se prendre la tête avec une archi RADICALEMENT différente…





Ben c’est plus les spécificités du CELL qui le rendent irréaliste à émuler avec le matos actuel, bien plus que son core PowerPC. Tant la PS2 que la PS3 reposent sur des architectures en anneau avec des bandes passantes monstrueuses (pour l’époque en ce qui concerne la ps2) et une philosophie générale de programmation qui encourage à toujours essayer de saturer ces liens. Rien que ça, c’est un challenge. Après, il faut encore émuler le core PPC, mais surtout les SPU… bref, ça revient à émuler du GPGPU sur du CPU… Il faudrait un équivalent xeon phi super boosté pour émuler la ps3 correctement.


Le 22/02/2013 à 12h 37







Kanchelsis a écrit :



Y’a un max de R&D à payer et financer.







Nan, le max c’était la PS3, avec le CELL qu’IBM qui a bien gonflé l’ardoise du CELL pour s’assurer de pouvoir aussi le vendre dans des clusters de calcule et également recycler les SPU dans d’autres architectures tierces comme Spurs Engine.



La PS4 est une approche beaucoup moins audacieuse, et le R&D est certainement un ordre de grandeur en dessous de celui de la PS3 car tous les composants existent déjà plus ou moins.


Le 22/02/2013 à 13h 51







Alan a écrit :



Ben oui, c’est sûrement logique… pourquoi pas la Titan vu le prix ?



Mais entre les 1000 euros annoncés pour la Titan, et 1.980 euros la Quadro K5000, j’ai un doute. La Quadro 6000 est par ex. à 4.695 euros <img data-src=" />



Bien évidemment il s’agit d’utilisateurs professionnels pour la gamme Quadro.

Mais même si ce matériel est déductible fiscalement, je pense qu’il doit y avoir une chose qui ne veut pas dire son nom dans cette GeForce GTX Titan ?



Car somme toute, la gamme Tesla est technologiquement encore un cran au-dessus de Quadro.



<img data-src=" />







On est d’accord, c’est étrange de la part de NVIDIA… après avoir sur-segmenté leur offre artificiellement, ils nous sortent un produit qui semble en pleine contradiction avec cette segmentation, pas monstrueusement cher et qui dit tenir les promesses de matos beaucoup plus haut de gamme…



C’est peut-être une arnaque, ou alors c’est peut-être une manœuvre pour contrer AMD et l’openCL, au moins sur le segment grand public.



Perso, je m’attend à ce que la tesla se comporte comme n’importe quelle GTX en openGL (et donc soit inférieure aux Quadros dans les applis pro), mais offre un réel boost performances en GPU computing. Ce qui correspond au haut de gamme grand public AMD (fort en jeux, médiocre en opengl pro, fort en GPU computing)


Le 22/02/2013 à 10h 55







Alan a écrit :



En fait, c’est une information (en langage infographistes) que je ne retrouve nulle part dans les spécifications de la GeForce GTX Titan, à savoir la “précision chromatique” par canal de couleur fondamentale. <img data-src=" />







Il me semble avoir lu sur les forums geforce que 570GTX supportait le 10bit par canal, à condition d’avoir un moniteur compatible… pourquoi pas la Titan, du coup… à moins que NVIDIA ait décidé de laisser le marché des graphistes freelance à AMD…


Le 21/02/2013 à 18h 15







Fantassin a écrit :



C’est pas cher. Mais pourquoi ne la vendent-ils pas au moins 2500 € ? Ils ont un doute sur les performances de la carte ? <img data-src=" />





Ben il y a la Tesla c2070 si tu veux un peu mieux dans le genre “compute”…


Le 21/02/2013 à 15h 49







Spidard a écrit :



la 690 est moins puissante, mais plus chère ? <img data-src=" />







Non, si je vois bien les benchs jeux, la 690 colle de temps à autres une belle fessée à la Titan…



Perso, je crois que la Titan ne vise pas réellement les gamers, c’est plutôt un produit pour essayer de garder une présence de CUDA sur le marché (avec un bonus perf par watt)…



Avec le bridage des 6x0 GTX en usage GPGPU, NVIDIA a en fait créé une opportunité pour AMD et OpenCL qui pourrait coûter des plumes à la stratégie CUDA. La Titan me semble être une manière de rectifier le tir et contrer la fuite des développeurs.


Le 21/02/2013 à 15h 28







Anna Lefeuk a écrit :



Que de souvenir…600 euros à l’époque, une bête et j’ai pleuré lorsqu’elle a cramé 1 an après..







Moi j’ai pleuré quand j’ai renvoyé le premier exemplaire au SAV car il était défectueux (carte cramée, faute dans le design, réglée deux révisions du hardware plus tard)…



Et ensuite, deux ans plus tard, elle a claqué pour de bon…



Pour le moment j’ai une Radeon HD 5870 dont le défaut principal est d’avoir un ventilo trop lent et qui plante si je ne le pousse pas un peu ce dernier avant de commencer à charger la bête…



Le 21/02/2013 à 15h 09







Spidard a écrit :



Enfin, sinon le tarif arrêtera quiconque à un minimum de bon sens… Même la 8800 GTX / dual, fleuron inégalé à son époque, n’a pas atteint ce tarif (j’ai des souvenirs de 550€ au plus), alors quand des concurrents font jeu égal pour bien moins cher… <img data-src=" />





Pour info, la 690 GTX est plus chère que la Titan… donc cette dernière n’est pas la carte la plus déraisonnable…



Maintenant, c’est clair que c’est un peu violent comme prix, mais si on regarde de plus près ce qu’on a, selon l’usage, ça peut être carrément une bonne affaire: un dérivé de tesla c2070 à un prix cassé, idéal pour les graphistes freelance, ou un projet de dev cuda…





Le 21/02/2013 à 11h 03

Manquerait plus qu’IBM attaque Sony pour protéger sa marque commerciale PS2, maintenant que Sony débarque sur le marché PC <img data-src=" />

Le 20/02/2013 à 15h 03







FunnyD a écrit :



<img data-src=" /> Sacrilège!!!!



Sinon, c’est quoi le message caché avec l’ovni, attention on vous envahit?? C’est pas ca qui va rassurer les gens.<img data-src=" />







Non, le message est: “vous la trouviez-moche? Attendez de la voir avec une grosse bitte chromée taiwanaise” … bref, un message de mise en garde pour tous les monuments du monde entier.


Le 20/02/2013 à 14h 14

Mal barré pour la Sagrada Familia… ça va encore servir de prétexte pour prendre du retard dans la construction (qui a débuté en 1882)

Le 20/02/2013 à 14h 58







snoopy1492 a écrit :



Non, la carte n’a que peu d’intérêt hormis pour les bencheurs ou ceux qui veulent le plus pour n’importe quel prix (je retire le cas du PC mini-itx)







Perso, je vois plutôt cette carte pour les infographistes amateurs/freelance…



Si elle tient ses promesses, avec ses 6Go de ram, elle devrait, par exemple, être LA carte à avoir quand on fait du rendu Cycles dans Blender.


Le 18/02/2013 à 09h 59







MickeyFreeStyler a écrit :



Tout à fait d’accord.

Encore que sur cette new çà va. Quand çà parlait de WHS, il y en avait des kilomètres.







Ben oui, mais ça c’est quand on parle de jouets… Un OS serveur de stockage/backups avec une pile stockage de masse aussi mal foutue et inconsistante, c’est une vilaine blague comparé à des systèmes minimalistes mais robustes comme FreeNas… WSH, c’était un peu comme ces tanks gonflables utilisés dans les forces armées pour faire croire à une plus grande capacité, un leurre plein d’air pour occuper le terrain.



Un vrai OS serveur comme Windows Server 2012 Essentials, là par contre, c’est du sérieux, avec une pile de stockage robuste et cohérente…


Le 17/02/2013 à 17h 54







djiize a écrit :



Et 350€ pour une licence Windows Server, cela n’a rien d’exorbitant.







C’est clair que c’est une solution intéressante pour qui ne connaît pas trop le monde linux ou veut faire un vrai domaine AD sans se prendre la tête. De même, Storage Space a l’air suffisamment élaboré et flaxible pour excuser les décennies de désert technologique au niveau stockage chez Microsoft.



Maintenant, si ce n’est ni pour faire un usage intensif des services cloud Microsoft ni pour mettre en place une infra AD native, ni pour utiliser des logiciels serveurs exclusifs Windows, c’est peut-être un investissement à ne pas faire. mais du coup l’investissement financier se transformera souvent en investissement de temps.


Le 15/02/2013 à 15h 02







raoudoudou a écrit :



Il y a eu beaucoup de 68000 dans les imprimantes.







Les devices Palm OS ancienne génération étaient basés sur des SOC incorporant un dérivé de 68020 ..



Sinon un des usages encore fait à l’heure actuelle pour les motorola 68000, c’est dans les micro-contrôleurs des mines antipersonnelles …


Le 15/02/2013 à 08h 57







John Shaft a écrit :



C’est pour que les mecs de Gimp puissent enfin améliorer leur logiciel <img data-src=" />





<img data-src=" />





Ben sans rire… la 1.0.7 de photoshop supportait déjà de travailler sur des images avec plus de 8 bit par canaux…



Sous Blender, c’est disponible depuis…

…ah ben non c’est pas encore dispo dans la version stable…<img data-src=" />


Le 14/02/2013 à 22h 30







brazomyna a écrit :



Tu confonds tout: les lois, ils les suivent







Non, à l’heure actuelle ils les font… c’est pour celà qu’on retrouve des lois abjectes comme le DADVSI qui ont réussies à contourner presque tout contrôle démocratique grâce à des pressions venant d’instances résolument non démocratiques.



Le 14/02/2013 à 18h 25







brazomyna a écrit :



mais A NOUVEAU, c’est pas au ‘consommateur’ de l’oeuvre de choisir le modèle économique (ou non), c’est à L’AUTEUR.







Dans la mesure ou lesdits “auteurs” (en fait plutôt une nébuleuse industrielle qui s’est accaparée le devant de la scène en leur noms) sont infoutus de choisir des modèles économiques viables sans faire appel à des subventions, à des taxes, et à la mise en place de lois de plus en plus souvent liberticides, je suis désolé, mais non, les ayants droits doivent suivre les règles comme tout le monde et leur liberté doit être limitée.



Sans la société civile pour soutenir un modèle de droit d’auteurs, l’auteur n’a strictement droit à rien. Sans droit, il n’y a pas d’ayants droits. Le consommateur a également des droits, comme celui de la copie privée, et ces droits se font bafouer grâce aux DRMs.


Le 14/02/2013 à 14h 03







brazomyna a écrit :



Ces lois regroupent justement deux choses: les droits moraux et ceux patrimoniaux. Pour les seconds, elles disent justement que par défaut seul l’auteur détient les droits sur ses oeuvres (il a un ‘monopole’) et que si tu veux les utiliser, tu dois négocier avec lui un accord d’exploitation, donc … faire un contrat qui définira le cadre de cet accord.







Sauf qu’en tant que consommateur, tu ne fais pas des accords d’exploitation…

… et si tu veux exploiter, ou reproduire publiquement, c’est un autre cadre que celui de l’achat d’un CD …







brazomyna a écrit :



Tu pourras retourner les choses dans n’importe quel sens, le résultat restera le même: l’auteur fait une oeuvre, il est libre de choisir ce qu’il autorise ou pas, et toi en tant que consommateur potentiel, soit tu acceptes, soit tu refuses (et donc tu te passes de l’oeuvre).







L’auteur est libre de choisir ce qu’il autorise ou pas dans le cadre de la loi.



Si un auteur décide que son œuvre ne peut pas être consultée par des personnes de couleur, il se heurtera très certainement à certaines lois.



L’exception copie privée est d’ailleurs une exception au principe d’auteur tout puissant que tu évoques ci-dessus. C’est un droit conféré aux consommateurs qu’aucune licence d’utilisation ne peut légalement retirer. Ce n’est que grâce aux DRMs que les auteurs arrivent à priver les consommateurs de l’exercice de ce droit.


Le 14/02/2013 à 13h 28







brazomyna a écrit :



Le droit d’auteur, ça inclut un contrat entre l’utilisateur de l’oeuvre et son auteur pour qu’il puisse en jouir contre rémunération (ou autre). C’est donc bien un moyen pour faire appliquer le contrat qui a été énoncé dès le départ et qui lie l’acheteur et l’auteur.







Il y a le contrat et le cadre légal… le droit d’auteur est à la base un ensemble de lois, et non une histoire de contrats. Après il y a la formule ultra libérale qui consiste à essayer de faire renoncer le consommateur à ses droits au moyen de contrats, mais là on quitte le domaine du droit d’auteur pour rentrer dans quelque-chose de plus flou et créant parfois des contradictions avec d’autres points du droit.



Par exemple, il y a l’exercice de la copie privée qui a un cadre légal et pour lequel l’industrie touche une grasse compensation … et pourtant cette industrie empêche fréquemment l’exercice de la copie privée au moyen des DRMs.



Rappelons que le droit d’auteur est à la base un choix de société pour permettre aux auteurs de vivre des œuvres de leur esprit. C’est une concession que la société civile a faite, et qui est maintenant pervertie par un marché dont les éléments les plus productifs sont les avocats plutôt que des artistes.


Le 14/02/2013 à 13h 04







rsegismont a écrit :



Ouais enfin y’a toujours aussi le respect du droit… les DRM ne sont pas le mal. c’est leur utilisations abusives qui en est une…







Vu la qualité des textes législatifs déposés pour protéger les DRM et les implications de ces textes pour certaines activités légitimes… on ne peut pas dire que l’impact des DRM sur le droit ait été très bénéfique, ou soit intellectuellement très respectable.



Pour le reste, les DRM sont par essence une action du fournisseur de contenu à l’encontre du consommateur puisqu’ils travaillent dans le but de limiter ou d’empêcher l’utilisateur de faire certaines actions.



Bref, les DRM et le droit, c’est généralement plus une affaire de protéger les restrictions imposées artificiellement par les ayants droits ou les diffuseurs qu’une question de faire respecter le droit d’auteur lui-même.



Enfin, technologiquement, les DRM sont plutôt l’expression d’une industrie qui vie dans le déni de la réalité et qui tente d’imposer des méthodes technologiquement bancales pour essayer de maximiser artificiellement ses profits en portant atteinte aux droits des consommateurs.



Les DRM, c’est pour pousser madame Michu à acheter 5x le même album et s’assurer qu’elle ne pourra en revendre aucun exemplaire.



Rien de respectable là dedans.


Le 06/02/2013 à 10h 32







vince120 a écrit :



bah maintenant qu’ils ont signé un accord -secret- avec la presse, les majors sont en droit de spéculer sur le contenu de l’accord. en plus de ça ils vont en demander au moins autant…







Le problème de ces accords secrets et du rançonnage que la presse, les majors et les autres essayent de mettre en place, c’est que le coût pour mettre en place un nouveau moteur de recherche devient prohibitif: non seulement il y a les coûts infrastructure qui sont déjà super élevés, mais en plus il faudra verser des taxes aux différentes maffias avant de pouvoir commencer à indexer…





Le 06/02/2013 à 10h 18



Cette théorie élaborée à la fin du XIXe siècle repose sur un principe d’équité : nul ne peut s’enrichir aux dépens d’autrui. Il est donc équitable de compenser cette perte comme s’il existait un contrat entre les deux personnes.





Faudrait déjà prouver la perte… ou alors on tombe dans une vision extrêmement large de ce qu’est une perte et il est urgent d’interdire l’enrichissement des individus, en interdisant toute opération sur un bien ou un service pouvant engendrer une plus-value.

Le 01/02/2013 à 17h 32







illidanPowa a écrit :



Pour info, une batterie de voiture peut délivrer plusieurs centaines d’ampères, et pourtant tu peux toucher les bornes sans mourir ni même le sentir grâce à ta résistance interne.





Euh… il y a moyen de sérieusement se brûler en touchant les deux bornes d’une batterie de voiture.



Et sinon, rappelons-nous que la gégène, c’était juste un générateur à main utilisé pour alimenter les téléphones de campagne de l’armée et servait également d’instrument de torture aux vaillants militaires…. que de testicules grillées par une bête dynamo à main bien moins puissante qu’une batterie de voiture.


Le 01/02/2013 à 15h 23

Pour moi, le point le plus disqualifiant pour cette console est si elle intègre le système de verrouillage des disques que sony a breveté: à savoir le disque est équipé d’un rfid qui est réécrit au premier usage par la console pour qu’il ne puisse plus être utilisé qu’avec cette dernière (plus question de revendre ou de prêter un jeu)

Le 28/01/2013 à 18h 42

La France, ce pays qui tente désespérément de se débarrasser de l’ignoble internet pour rouvrir ses fières usines de minitels…

Le 28/01/2013 à 12h 12







Tumeconnais a écrit :



SI j’ai bien compris, il faudrait taxer Google, car Google fait de l’argent grâce au contenu des société?







C’est l’idée générale… Déjà le principe est choquant et en contradiction des principes et valeurs grâce auxquels le web a pu devenir ce qu’il est.



En fin de compte, une fois de plus, on cherche à rompre la symbiose pour instaurer un modèle parasitaire soutenu par l’état.


Le 25/01/2013 à 16h 07

Linksys, c’était surtout le top avant le rachat par Cisco… là c’était compétitif et innovant. Maintenant, c’est juste devenu une sous-marque avec un intérêt réduit et des produits “incrémentaux” ad nauseam.

Le 25/01/2013 à 15h 58







zephyrs a écrit :



A mon avis cette affaire montre les limites d’un cadre juridique national…

Va falloir réfléchir à un cadre juridique international pour tout ce qui transite par Internet



C’est pas gagné…







Un cadre international pouir un truc aussi sensible que la liberté d’expression? Aucune chance…. quand on voit déjà au niveau européen les difficultés pour faire des législations communes… Maintenant, chaque état qui le désire peut mettre en place un filtrage … Iran, Chine, Pakistan, Australie, … tant d’exemples à suivre.


Le 22/01/2013 à 22h 38







ActionFighter a écrit :



Pour Optimus sous linux, c’est certifié DTC…





C’est pour cela qu’il faut réfléchir avant d’acheter… Et puis bon, pour les portables, avec les GPU intel de la prochaine génération, le besoin d’avoir un GPU discret se fera beaucoup moins sentir…


Le 22/01/2013 à 18h 11







atem18 a écrit :



Ce que beaucoup semblent oublier est que Linus Torvald, le fondateur de Linux, s’en contrefous du libre ou du proprio. Il a juste placé le noyau Linux sous GPL parce que ça l’arrangeait au moment où il a du le faire. C’est Stallman avec la FSF qui font chier avec le libre.



Sources :

Interview Linus Torvald pour les 20 ans du noyau.







C’est un classique de lire ce genre d’interview en diagonale pour dénigrer le libre… Linux Torvalds n’aime juste pas le jugement de valeur simpliste libre=bien, proprio=mal. L’interview donne en outre une bonne idée de sa vision personnelle de la GPLv2.



Enfin, ceux qui disent que “le libre fait chier” sont généralement des individus qui veulent qu’on leur donne tout sans conditions et qui n’accordent aucune valeur au travail des autres.


Le 22/01/2013 à 09h 56







bingo.crepuscule a écrit :



Des liens avec la fondation Linux? J’avoue que je me suis posé la même question…





Perso, je vois mal la linux foundation commencer à certifier des pilotes, encore moins des pilotes non-libres qui ne respectent pas l’esprit du projet.


Le 22/01/2013 à 09h 48

Pilotes certifiés par qui?



Sous Windows, il y aWHQL pour les certifications, mais sous linux? Ou alors c’est de l’auto-certification, mais du coup ça revient plus à une terminologie marketing.

Le 18/01/2013 à 15h 48







zaknaster a écrit :



C’est un peu ça, la presse française sera obligée de servir les intérêts de Google, ce qui garanti sa domination. On dirait le même accord signé avec la belgique, sauf que là rien n’est fait encore





Google n’achète la presse française que parcequ’elle est à vendre et le crie sur tous les toits…



Reste à savoir si Google va en arriver à utiliser les mêmes tactiques qu’en Belgique pour mettre la presse au pas.


Le 18/01/2013 à 14h 02







goodwhitegod a écrit :



Tu met le rack dans les 2 premier slot 5”14

Le radiateur donne directement sur le ventillo du devant/dessus du boitier.





Ben, si tu le met en haut, il va surtout donner sur la plaque supérieure de la baie 5”14 … quand un boîtier a une extraction d’air sur le toît, celle-ci est généralement plus vers l’arrière.









Je pense plutôt, qu’il aspire l’air donné par le/les ventillo d’entrée d’air frais du devant/bas du boitier, puis extrait l’air par le devant/dessus

Extraire par l’avant et l’arrière c’est pas très efficace… en fait il faudrait inverser les ventilos à l’arrière du boîtier pour que ce scénario devienne efficace.