Dans ton document on y apprend que les SSD en test ont subit de nombreuse coupure de courant en pleins fonctionnement, mais on sait pas combien…
Ben faut lire le document, le nombre de coupures est marqué… par exemple le ssd qui a perdu 30% de son contenu l’a fait après 8 coupures. et celui qui a claqué, 136.
Le
09/03/2013 à
13h
05
Nerdebeu a écrit :
Ca met surtout l’accent sur ce problème, qui du reste est aussi valable sur des disques mécaniques qui s’accommodent mal de coupures de courant violentes et répétitives.
Pas de la même manière… les disques durs peuvent rater des écritures, corrompre les données qu’ils sont occupés à écrire, mais pas avoir un problème massif d’intégrité suite à une coupure… ici, on voit que bon nombre de ssd ne sont pas capables de maintenir leurs structures sous-jacentes avec des transactions saines.
Le
09/03/2013 à
10h
33
moxepius a écrit :
Avec le nombre de disque dur mécanique qui m’ont lâcher ces dernières année, c’est dans ceux là que j’aurais plus trop confiance.
Ah, les disques mécaniques, je m’en méfie aussi, mais si tu lis l’étude que j’ai mis en lien, tu verras que les ssd peuvent encore faire froid dans le dos: un faute logique liée à une panne de courant peut faire un désastre.
Le
08/03/2013 à
16h
43
Perso, je n’ai pas confiance dans les SSD comme système de stockage…. Pour de la cache, je ne dis pas, mais pour stocker, je n’ai pas confiance.
Oui, c’est d’ailleurs par son biais que Free Ipa gère le trust.
Un des gros avantages d’AD pour windows est que ça gère et intègre le ldap, le kerberos et le dns… dans un ensemble cohérent et automatisé. FreeIPA offre un service similaire mais orienté Linux. Alors bon, FreeIPA n’est pas au niveau d’AD question qualité d’intégration et maturité, et il limite volontairement la richesse de certains outils sous-jacents, mais pour gérer un parc linux client-serveur, je n’ai pas encore vu mieux sans mettre sérieusement les mains dans le cambouis.
Le
08/03/2013 à
16h
39
CryoGen a écrit :
Il est marrant lui, au lieu de bosser comme des ouf sur l’interface, s’il veut vraiment passer dans le monde de l’entreprise s’est simple : alternative valable à Active Directory. Sans ce truc là c’est pas la peine d’espérer " />
Le truc le plus avancé dans le genre, c’est FreeIPA, de Red Hat… les dernières versions permettent même les trusts entre domaines IPA et domaines AD.
Sinon pour le reste, Mark Shuttleworth ferait bien de faire gaffe… c’est pas avec le budget de canonical qu’on fait un ubuntu, mais en attirant des geeks pour développer, adapter, intégrer et empaqueter les softs. Il veut être leader? soit, mais il ne faut pas oublier que son truc ne tient que grâce aux geeks, et à moins d’être prêt à payer une équipe beaucoup plus conséquente, il faut être capable de motiver les gens autour du projet pour qu’ils continuent à bosser gratos. Se moquer d’un certain élitisme de la communauté risque de faire fuir du monde, et pas forcément les pires.
Mozilla a interprété la spécification d’une façon différente des autres éditeurs qui s’est avérée plus appropriée. Mieux ?
Nah, ils ont juste décidé de pas faire les feignasses et ont regardé plus loin que les “must”…
En général, ne pas regarder que les must permet aussi de saisir l’intention derrière la norme et d’anticiper ses évolutions. ça permet d’avoir une analyse plus juste dès le départ et d’éviter de devoir jeter des brouettes de code quand la norme évolue.
On ne change pas de résolution sur les écrans LCD, on étire/rétrécit l’image.
Techniquement c’est pareil sur les CRT… le pas de masque na change pas magiquement en changeant la résolution. La différence est qu’au lieu de passer par une méthode d’étirement par interpolation, le CRT étire ou contracte via une altération du balayage, mais le pas de masque reste constant.
Le
01/03/2013 à
12h
45
Grebz a écrit :
mais les CRT présentaient l’énorme avantage de pouvoir changer de résolution sans perte de qualité d’image, contrairement aux LCD.
ou pas… en baissant la résolution, on se retrouvait avec des lignes de balayage plus espacées… Et le pixel était loin d’être bien carré. En montant la résolution, on se retrouvait avec une image baveuse.
Sérieusement, le CRT était une horreur pour les activités bureautiques et le développement, surtout qu’avec l’évolutions des IDE, il fallait toujours pousser la résolution plus loin, et ça crevait de plus en plus les yeux (micro fluctuations dans le balayage, scintillement, flou, …)
la “façon valve” (cfr Bleszinski) où en multi on risque de se retrouver face à un gars avec un costume “dlc” le rendant plus unique
la façon EA où en multi on risque de se retrouver face à des adversaires avec des armures plus costaudes et des armes plus balèzes avec une plus grande portée qu’on aura plus de mal à battre sans mettre aussi la main au porte-feuille.
Ce n’est vraiment pas si simple, là tu ne compte pas le sysadmin qui s’en occupera, le deuxième serveur si tu veux un minimum de redondance, la facture électrique, l’UPS pour la redondance électrique, le backup, etc … (oui il faut comparer à service équivalent).
Oui, mais à côté de ça, il y a aussi le fait que le cloud est également faillible… et un plantage du même style que samedi passé avec Azure (problème de renouvellement pki) pourrait prendre des dimensions désastreuses au niveau de l’économie mondiale si le cloud était adopté massivement par les entreprises. Le cloud a une dimension “tous les oeufs, de tout le monde dans un même panier”.
A côté de ça, il reste aussi les problèmes de confidentialité…
Et enfin, avoir un système cloud ne devrait pas dispenser d’avoir un backup.
Une prison numérique ne devrait pas avoir le droit d’être vendue.
Tant que ça se vend… l’important dans la vie moderne est de bien choisir sa prison.
Le
22/02/2013 à
13h
42
gogo77 a écrit :
Je sais pas pourquoi tout le monde s’énerve pour la rétrocompatibilité à chaque fois. Ça n’a jamais été quelque chose de systématique dans le monde des consoles. Est-ce qu’on criait quand on a au des Super Nes qui ne lisaient pas les jeux de NES
ça se réglait avec un adaptateur pour cartouches NES… " />
Le
22/02/2013 à
13h
04
JohnCaffey a écrit :
En gros, vous abondez dans mon sens ( avec plus de précisions)…" />
Effectiveent, je les voient mal se prendre la tête avec une archi RADICALEMENT différente…
Ben c’est plus les spécificités du CELL qui le rendent irréaliste à émuler avec le matos actuel, bien plus que son core PowerPC. Tant la PS2 que la PS3 reposent sur des architectures en anneau avec des bandes passantes monstrueuses (pour l’époque en ce qui concerne la ps2) et une philosophie générale de programmation qui encourage à toujours essayer de saturer ces liens. Rien que ça, c’est un challenge. Après, il faut encore émuler le core PPC, mais surtout les SPU… bref, ça revient à émuler du GPGPU sur du CPU… Il faudrait un équivalent xeon phi super boosté pour émuler la ps3 correctement.
Le
22/02/2013 à
12h
37
Kanchelsis a écrit :
Y’a un max de R&D à payer et financer.
Nan, le max c’était la PS3, avec le CELL qu’IBM qui a bien gonflé l’ardoise du CELL pour s’assurer de pouvoir aussi le vendre dans des clusters de calcule et également recycler les SPU dans d’autres architectures tierces comme Spurs Engine.
La PS4 est une approche beaucoup moins audacieuse, et le R&D est certainement un ordre de grandeur en dessous de celui de la PS3 car tous les composants existent déjà plus ou moins.
Ben oui, c’est sûrement logique… pourquoi pas la Titan vu le prix ?
Mais entre les 1000 euros annoncés pour la Titan, et 1.980 euros la Quadro K5000, j’ai un doute. La Quadro 6000 est par ex. à 4.695 euros " />
Bien évidemment il s’agit d’utilisateurs professionnels pour la gamme Quadro.
Mais même si ce matériel est déductible fiscalement, je pense qu’il doit y avoir une chose qui ne veut pas dire son nom dans cette GeForce GTX Titan ?
Car somme toute, la gamme Tesla est technologiquement encore un cran au-dessus de Quadro.
" />
On est d’accord, c’est étrange de la part de NVIDIA… après avoir sur-segmenté leur offre artificiellement, ils nous sortent un produit qui semble en pleine contradiction avec cette segmentation, pas monstrueusement cher et qui dit tenir les promesses de matos beaucoup plus haut de gamme…
C’est peut-être une arnaque, ou alors c’est peut-être une manœuvre pour contrer AMD et l’openCL, au moins sur le segment grand public.
Perso, je m’attend à ce que la tesla se comporte comme n’importe quelle GTX en openGL (et donc soit inférieure aux Quadros dans les applis pro), mais offre un réel boost performances en GPU computing. Ce qui correspond au haut de gamme grand public AMD (fort en jeux, médiocre en opengl pro, fort en GPU computing)
Le
22/02/2013 à
10h
55
Alan a écrit :
En fait, c’est une information (en langage infographistes) que je ne retrouve nulle part dans les spécifications de la GeForce GTX Titan, à savoir la “précision chromatique” par canal de couleur fondamentale. " />
Il me semble avoir lu sur les forums geforce que 570GTX supportait le 10bit par canal, à condition d’avoir un moniteur compatible… pourquoi pas la Titan, du coup… à moins que NVIDIA ait décidé de laisser le marché des graphistes freelance à AMD…
Le
21/02/2013 à
18h
15
Fantassin a écrit :
C’est pas cher. Mais pourquoi ne la vendent-ils pas au moins 2500 € ? Ils ont un doute sur les performances de la carte ? " />
Ben il y a la Tesla c2070 si tu veux un peu mieux dans le genre “compute”…
Le
21/02/2013 à
15h
49
Spidard a écrit :
la 690 est moins puissante, mais plus chère ? " />
Non, si je vois bien les benchs jeux, la 690 colle de temps à autres une belle fessée à la Titan…
Perso, je crois que la Titan ne vise pas réellement les gamers, c’est plutôt un produit pour essayer de garder une présence de CUDA sur le marché (avec un bonus perf par watt)…
Avec le bridage des 6x0 GTX en usage GPGPU, NVIDIA a en fait créé une opportunité pour AMD et OpenCL qui pourrait coûter des plumes à la stratégie CUDA. La Titan me semble être une manière de rectifier le tir et contrer la fuite des développeurs.
Le
21/02/2013 à
15h
28
Anna Lefeuk a écrit :
Que de souvenir…600 euros à l’époque, une bête et j’ai pleuré lorsqu’elle a cramé 1 an après..
Moi j’ai pleuré quand j’ai renvoyé le premier exemplaire au SAV car il était défectueux (carte cramée, faute dans le design, réglée deux révisions du hardware plus tard)…
Et ensuite, deux ans plus tard, elle a claqué pour de bon…
Pour le moment j’ai une Radeon HD 5870 dont le défaut principal est d’avoir un ventilo trop lent et qui plante si je ne le pousse pas un peu ce dernier avant de commencer à charger la bête…
Le
21/02/2013 à
15h
09
Spidard a écrit :
Enfin, sinon le tarif arrêtera quiconque à un minimum de bon sens… Même la 8800 GTX / dual, fleuron inégalé à son époque, n’a pas atteint ce tarif (j’ai des souvenirs de 550€ au plus), alors quand des concurrents font jeu égal pour bien moins cher… " />
Pour info, la 690 GTX est plus chère que la Titan… donc cette dernière n’est pas la carte la plus déraisonnable…
Maintenant, c’est clair que c’est un peu violent comme prix, mais si on regarde de plus près ce qu’on a, selon l’usage, ça peut être carrément une bonne affaire: un dérivé de tesla c2070 à un prix cassé, idéal pour les graphistes freelance, ou un projet de dev cuda…
Sinon, c’est quoi le message caché avec l’ovni, attention on vous envahit?? C’est pas ca qui va rassurer les gens." />
Non, le message est: “vous la trouviez-moche? Attendez de la voir avec une grosse bitte chromée taiwanaise” … bref, un message de mise en garde pour tous les monuments du monde entier.
Le
20/02/2013 à
14h
14
Mal barré pour la Sagrada Familia… ça va encore servir de prétexte pour prendre du retard dans la construction (qui a débuté en 1882)
Encore que sur cette new çà va. Quand çà parlait de WHS, il y en avait des kilomètres.
Ben oui, mais ça c’est quand on parle de jouets… Un OS serveur de stockage/backups avec une pile stockage de masse aussi mal foutue et inconsistante, c’est une vilaine blague comparé à des systèmes minimalistes mais robustes comme FreeNas… WSH, c’était un peu comme ces tanks gonflables utilisés dans les forces armées pour faire croire à une plus grande capacité, un leurre plein d’air pour occuper le terrain.
Un vrai OS serveur comme Windows Server 2012 Essentials, là par contre, c’est du sérieux, avec une pile de stockage robuste et cohérente…
Le
17/02/2013 à
17h
54
djiize a écrit :
Et 350€ pour une licence Windows Server, cela n’a rien d’exorbitant.
C’est clair que c’est une solution intéressante pour qui ne connaît pas trop le monde linux ou veut faire un vrai domaine AD sans se prendre la tête. De même, Storage Space a l’air suffisamment élaboré et flaxible pour excuser les décennies de désert technologique au niveau stockage chez Microsoft.
Maintenant, si ce n’est ni pour faire un usage intensif des services cloud Microsoft ni pour mettre en place une infra AD native, ni pour utiliser des logiciels serveurs exclusifs Windows, c’est peut-être un investissement à ne pas faire. mais du coup l’investissement financier se transformera souvent en investissement de temps.
Non, à l’heure actuelle ils les font… c’est pour celà qu’on retrouve des lois abjectes comme le DADVSI qui ont réussies à contourner presque tout contrôle démocratique grâce à des pressions venant d’instances résolument non démocratiques.
Le
14/02/2013 à
18h
25
brazomyna a écrit :
mais A NOUVEAU, c’est pas au ‘consommateur’ de l’oeuvre de choisir le modèle économique (ou non), c’est à L’AUTEUR.
Dans la mesure ou lesdits “auteurs” (en fait plutôt une nébuleuse industrielle qui s’est accaparée le devant de la scène en leur noms) sont infoutus de choisir des modèles économiques viables sans faire appel à des subventions, à des taxes, et à la mise en place de lois de plus en plus souvent liberticides, je suis désolé, mais non, les ayants droits doivent suivre les règles comme tout le monde et leur liberté doit être limitée.
Sans la société civile pour soutenir un modèle de droit d’auteurs, l’auteur n’a strictement droit à rien. Sans droit, il n’y a pas d’ayants droits. Le consommateur a également des droits, comme celui de la copie privée, et ces droits se font bafouer grâce aux DRMs.
Le
14/02/2013 à
14h
03
brazomyna a écrit :
Ces lois regroupent justement deux choses: les droits moraux et ceux patrimoniaux. Pour les seconds, elles disent justement que par défaut seul l’auteur détient les droits sur ses oeuvres (il a un ‘monopole’) et que si tu veux les utiliser, tu dois négocier avec lui un accord d’exploitation, donc … faire un contrat qui définira le cadre de cet accord.
Sauf qu’en tant que consommateur, tu ne fais pas des accords d’exploitation…
… et si tu veux exploiter, ou reproduire publiquement, c’est un autre cadre que celui de l’achat d’un CD …
brazomyna a écrit :
Tu pourras retourner les choses dans n’importe quel sens, le résultat restera le même: l’auteur fait une oeuvre, il est libre de choisir ce qu’il autorise ou pas, et toi en tant que consommateur potentiel, soit tu acceptes, soit tu refuses (et donc tu te passes de l’oeuvre).
L’auteur est libre de choisir ce qu’il autorise ou pas dans le cadre de la loi.
Si un auteur décide que son œuvre ne peut pas être consultée par des personnes de couleur, il se heurtera très certainement à certaines lois.
L’exception copie privée est d’ailleurs une exception au principe d’auteur tout puissant que tu évoques ci-dessus. C’est un droit conféré aux consommateurs qu’aucune licence d’utilisation ne peut légalement retirer. Ce n’est que grâce aux DRMs que les auteurs arrivent à priver les consommateurs de l’exercice de ce droit.
Le
14/02/2013 à
13h
28
brazomyna a écrit :
Le droit d’auteur, ça inclut un contrat entre l’utilisateur de l’oeuvre et son auteur pour qu’il puisse en jouir contre rémunération (ou autre). C’est donc bien un moyen pour faire appliquer le contrat qui a été énoncé dès le départ et qui lie l’acheteur et l’auteur.
Il y a le contrat et le cadre légal… le droit d’auteur est à la base un ensemble de lois, et non une histoire de contrats. Après il y a la formule ultra libérale qui consiste à essayer de faire renoncer le consommateur à ses droits au moyen de contrats, mais là on quitte le domaine du droit d’auteur pour rentrer dans quelque-chose de plus flou et créant parfois des contradictions avec d’autres points du droit.
Par exemple, il y a l’exercice de la copie privée qui a un cadre légal et pour lequel l’industrie touche une grasse compensation … et pourtant cette industrie empêche fréquemment l’exercice de la copie privée au moyen des DRMs.
Rappelons que le droit d’auteur est à la base un choix de société pour permettre aux auteurs de vivre des œuvres de leur esprit. C’est une concession que la société civile a faite, et qui est maintenant pervertie par un marché dont les éléments les plus productifs sont les avocats plutôt que des artistes.
Le
14/02/2013 à
13h
04
rsegismont a écrit :
Ouais enfin y’a toujours aussi le respect du droit… les DRM ne sont pas le mal. c’est leur utilisations abusives qui en est une…
Vu la qualité des textes législatifs déposés pour protéger les DRM et les implications de ces textes pour certaines activités légitimes… on ne peut pas dire que l’impact des DRM sur le droit ait été très bénéfique, ou soit intellectuellement très respectable.
Pour le reste, les DRM sont par essence une action du fournisseur de contenu à l’encontre du consommateur puisqu’ils travaillent dans le but de limiter ou d’empêcher l’utilisateur de faire certaines actions.
Bref, les DRM et le droit, c’est généralement plus une affaire de protéger les restrictions imposées artificiellement par les ayants droits ou les diffuseurs qu’une question de faire respecter le droit d’auteur lui-même.
Enfin, technologiquement, les DRM sont plutôt l’expression d’une industrie qui vie dans le déni de la réalité et qui tente d’imposer des méthodes technologiquement bancales pour essayer de maximiser artificiellement ses profits en portant atteinte aux droits des consommateurs.
Les DRM, c’est pour pousser madame Michu à acheter 5x le même album et s’assurer qu’elle ne pourra en revendre aucun exemplaire.
bah maintenant qu’ils ont signé un accord -secret- avec la presse, les majors sont en droit de spéculer sur le contenu de l’accord. en plus de ça ils vont en demander au moins autant…
Le problème de ces accords secrets et du rançonnage que la presse, les majors et les autres essayent de mettre en place, c’est que le coût pour mettre en place un nouveau moteur de recherche devient prohibitif: non seulement il y a les coûts infrastructure qui sont déjà super élevés, mais en plus il faudra verser des taxes aux différentes maffias avant de pouvoir commencer à indexer…
Le
06/02/2013 à
10h
18
Cette théorie élaborée à la fin du XIXe siècle repose sur un principe d’équité : nul ne peut s’enrichir aux dépens d’autrui. Il est donc équitable de compenser cette perte comme s’il existait un contrat entre les deux personnes.
Faudrait déjà prouver la perte… ou alors on tombe dans une vision extrêmement large de ce qu’est une perte et il est urgent d’interdire l’enrichissement des individus, en interdisant toute opération sur un bien ou un service pouvant engendrer une plus-value.
Pour info, une batterie de voiture peut délivrer plusieurs centaines d’ampères, et pourtant tu peux toucher les bornes sans mourir ni même le sentir grâce à ta résistance interne.
Euh… il y a moyen de sérieusement se brûler en touchant les deux bornes d’une batterie de voiture.
Et sinon, rappelons-nous que la gégène, c’était juste un générateur à main utilisé pour alimenter les téléphones de campagne de l’armée et servait également d’instrument de torture aux vaillants militaires…. que de testicules grillées par une bête dynamo à main bien moins puissante qu’une batterie de voiture.
Pour moi, le point le plus disqualifiant pour cette console est si elle intègre le système de verrouillage des disques que sony a breveté: à savoir le disque est équipé d’un rfid qui est réécrit au premier usage par la console pour qu’il ne puisse plus être utilisé qu’avec cette dernière (plus question de revendre ou de prêter un jeu)
Linksys, c’était surtout le top avant le rachat par Cisco… là c’était compétitif et innovant. Maintenant, c’est juste devenu une sous-marque avec un intérêt réduit et des produits “incrémentaux” ad nauseam.
A mon avis cette affaire montre les limites d’un cadre juridique national…
Va falloir réfléchir à un cadre juridique international pour tout ce qui transite par Internet
C’est pas gagné…
Un cadre international pouir un truc aussi sensible que la liberté d’expression? Aucune chance…. quand on voit déjà au niveau européen les difficultés pour faire des législations communes… Maintenant, chaque état qui le désire peut mettre en place un filtrage … Iran, Chine, Pakistan, Australie, … tant d’exemples à suivre.
C’est pour cela qu’il faut réfléchir avant d’acheter… Et puis bon, pour les portables, avec les GPU intel de la prochaine génération, le besoin d’avoir un GPU discret se fera beaucoup moins sentir…
Le
22/01/2013 à
18h
11
atem18 a écrit :
Ce que beaucoup semblent oublier est que Linus Torvald, le fondateur de Linux, s’en contrefous du libre ou du proprio. Il a juste placé le noyau Linux sous GPL parce que ça l’arrangeait au moment où il a du le faire. C’est Stallman avec la FSF qui font chier avec le libre.
C’est un classique de lire ce genre d’interview en diagonale pour dénigrer le libre… Linux Torvalds n’aime juste pas le jugement de valeur simpliste libre=bien, proprio=mal. L’interview donne en outre une bonne idée de sa vision personnelle de la GPLv2.
Enfin, ceux qui disent que “le libre fait chier” sont généralement des individus qui veulent qu’on leur donne tout sans conditions et qui n’accordent aucune valeur au travail des autres.
Le
22/01/2013 à
09h
56
bingo.crepuscule a écrit :
Des liens avec la fondation Linux? J’avoue que je me suis posé la même question…
Perso, je vois mal la linux foundation commencer à certifier des pilotes, encore moins des pilotes non-libres qui ne respectent pas l’esprit du projet.
Le
22/01/2013 à
09h
48
Pilotes certifiés par qui?
Sous Windows, il y aWHQL pour les certifications, mais sous linux? Ou alors c’est de l’auto-certification, mais du coup ça revient plus à une terminologie marketing.
C’est un peu ça, la presse française sera obligée de servir les intérêts de Google, ce qui garanti sa domination. On dirait le même accord signé avec la belgique, sauf que là rien n’est fait encore
Google n’achète la presse française que parcequ’elle est à vendre et le crie sur tous les toits…
Reste à savoir si Google va en arriver à utiliser les mêmes tactiques qu’en Belgique pour mettre la presse au pas.
Le radiateur donne directement sur le ventillo du devant/dessus du boitier.
Ben, si tu le met en haut, il va surtout donner sur la plaque supérieure de la baie 5”1⁄4 … quand un boîtier a une extraction d’air sur le toît, celle-ci est généralement plus vers l’arrière.
Je pense plutôt, qu’il aspire l’air donné par le/les ventillo d’entrée d’air frais du devant/bas du boitier, puis extrait l’air par le devant/dessus
Extraire par l’avant et l’arrière c’est pas très efficace… en fait il faudrait inverser les ventilos à l’arrière du boîtier pour que ce scénario devienne efficace.
3766 commentaires
Vous êtes plutôt disque dur ou SSD ?
08/03/2013
Le 10/03/2013 à 10h 09
Le 09/03/2013 à 13h 05
Le 09/03/2013 à 10h 33
Le 08/03/2013 à 16h 43
Perso, je n’ai pas confiance dans les SSD comme système de stockage…. Pour de la cache, je ne dis pas, mais pour stocker, je n’ai pas confiance.
Et l’étude suivante me conforte dans ma méfiance.
https://www.usenix.org/system/files/conference/fast13/fast13-final80.pdf
Pour Mark Shuttleworth (Canonical), Linux doit voir plus loin que les geeks
08/03/2013
Le 08/03/2013 à 18h 07
Le 08/03/2013 à 16h 39
Thecus N2520 et N4520 : deux NAS équipés d’un CPU Intel Atom CE 5315
04/03/2013
Le 04/03/2013 à 12h 22
Quitte à mettre une sortie hdmi, ils pourraient aussi le fourguer avec une commande à distance…
HTML5 et Local Storage : quand Chrome, IE et Safari saturent votre disque
04/03/2013
Le 04/03/2013 à 12h 01
[Insolite] Quand une adresse IP nous emmène de Star Wars à… Rick Astley
02/03/2013
Le 03/03/2013 à 15h 12
IIyama XB2776QS : un écran IPS de 27″ de 2560 x 1440 pixels, pour 519 €
01/03/2013
Le 01/03/2013 à 23h 07
Le 01/03/2013 à 12h 45
Le créateur de Gears of War défend les micro-paiements dans les jeux
01/03/2013
Le 01/03/2013 à 15h 39
si j’ai bien compris, on a
Non, il n’y a pas de différence…
Microsoft dévoile ses nouvelles offres Office 365 pour l’entreprise
27/02/2013
Le 27/02/2013 à 19h 05
299 ou 449 dollars ? Les analystes s’opposent sur le prix de la PS4
22/02/2013
Le 22/02/2013 à 13h 56
Le 22/02/2013 à 13h 42
Le 22/02/2013 à 13h 04
Le 22/02/2013 à 12h 37
La GeForce GTX Titan testée, disponible dès lundi pour un peu plus de 950 €
21/02/2013
Le 22/02/2013 à 13h 51
Le 22/02/2013 à 10h 55
Le 21/02/2013 à 18h 15
Le 21/02/2013 à 15h 49
Le 21/02/2013 à 15h 28
Le 21/02/2013 à 15h 09
PS4 : huit coeurs Jaguar d’AMD, mais une Radeon de prochaine génération
21/02/2013
Le 21/02/2013 à 11h 03
Manquerait plus qu’IBM attaque Sony pour protéger sa marque commerciale PS2, maintenant que Sony débarque sur le marché PC " />
ASUS pose son OVNI à Barcelone, voici les produits que l’on attend
20/02/2013
Le 20/02/2013 à 15h 03
Le 20/02/2013 à 14h 14
Mal barré pour la Sagrada Familia… ça va encore servir de prétexte pour prendre du retard dans la construction (qui a débuté en 1882)
[Dossier PCi] Tout savoir de la GeForce GTX Titan de NVIDIA
19/02/2013
Le 20/02/2013 à 14h 58
[Tech Days] The Geek is in the House, du NAS Winology au casque d’Iron Man
16/02/2013
Le 18/02/2013 à 09h 59
Le 17/02/2013 à 17h 54
23 ans après son lancement, le code source de Photoshop 1.0 est libéré
15/02/2013
Le 15/02/2013 à 15h 02
Le 15/02/2013 à 08h 57
Premier brouillon du W3C sur une technologie de gestion des DRM
14/02/2013
Le 14/02/2013 à 22h 30
Le 14/02/2013 à 18h 25
Le 14/02/2013 à 14h 03
Le 14/02/2013 à 13h 28
Le 14/02/2013 à 13h 04
Comment les majors veulent faire payer l’indexation Google
06/02/2013
Le 06/02/2013 à 10h 32
Le 06/02/2013 à 10h 18
Cette théorie élaborée à la fin du XIXe siècle repose sur un principe d’équité : nul ne peut s’enrichir aux dépens d’autrui. Il est donc équitable de compenser cette perte comme s’il existait un contrat entre les deux personnes.
Faudrait déjà prouver la perte… ou alors on tombe dans une vision extrêmement large de ce qu’est une perte et il est urgent d’interdire l’enrichissement des individus, en interdisant toute opération sur un bien ou un service pouvant engendrer une plus-value.
Le Mac Pro ne sera plus vendu en Europe après le 1er mars
01/02/2013
Le 01/02/2013 à 17h 32
Buzz de SONY : la PlayStation 4 dévoilée le 20 février ?
01/02/2013
Le 01/02/2013 à 15h 23
Pour moi, le point le plus disqualifiant pour cette console est si elle intègre le système de verrouillage des disques que sony a breveté: à savoir le disque est équipé d’un rfid qui est réécrit au premier usage par la console pour qu’il ne puisse plus être utilisé qu’avec cette dernière (plus question de revendre ou de prêter un jeu)
Le CSA dévoile son projet de corégulation des contenus vidéos du Net
28/01/2013
Le 28/01/2013 à 18h 42
La France, ce pays qui tente désespérément de se débarrasser de l’ignoble internet pour rouvrir ses fières usines de minitels…
La filière musicale monte au créneau pour défendre sa Taxe Google
28/01/2013
Le 28/01/2013 à 12h 12
Belkin rachète Linksys et conservera la marque
25/01/2013
Le 25/01/2013 à 16h 07
Linksys, c’était surtout le top avant le rachat par Cisco… là c’était compétitif et innovant. Maintenant, c’est juste devenu une sous-marque avec un intérêt réduit et des produits “incrémentaux” ad nauseam.
#UnBonJuif : l’accès aux tweets litigieux reste possible en France
25/01/2013
Le 25/01/2013 à 15h 58
NVIDIA certifie son pilote 310.32 sous Linux
22/01/2013
Le 22/01/2013 à 22h 38
Le 22/01/2013 à 18h 11
Le 22/01/2013 à 09h 56
Le 22/01/2013 à 09h 48
Pilotes certifiés par qui?
Sous Windows, il y aWHQL pour les certifications, mais sous linux? Ou alors c’est de l’auto-certification, mais du coup ça revient plus à une terminologie marketing.
Google offrirait 50 millions d’euros pour s’accorder avec la presse française
18/01/2013
Le 18/01/2013 à 15h 48
Bigwater 760 Pro : Thermaltake améliore son kit de watercooling tout-en-un
18/01/2013
Le 18/01/2013 à 14h 02