votre avatar

Noun29

est avec nous depuis le 6 janvier 2007 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

126 commentaires

Quelle solution de stockage utilisez-vous à la maison ?

Le 13/03/2013 à 21h 10






Noun29 a écrit :

c’est la que tu te trompe sur les fs modernes les raids ne sont plus gere materiellement mais par le FS. Il suffit de lire mes articles sur zfs et tu verra que les données sont toujours consistantes sur disque grace a un raidz bien different du raid 5 que le systeme de fichier est en mode cow et surtout grace a un checksuming sur 256 bit (le meilleur de tous les FS y’a un super article du cern la dessus et je vais pas tarder a faire le mien).

Apres tu prend onefs la ca va encore plus loin puisqu’il n’y a pas vraiment de raid a proprement parler c’est juste un cluster de x machine et tu defini un niveau de protection (tu peux perdre jusqu’a 4 machines dans le cluster) et le niveau de protection la tu peux le definir au niveau de chaque fichier.

Bref refs c’est sympa mais c’est encore tres tres loin de ce que peut faire un vrai fs moderne.

C’est exactement le principe du rain sauf que toi tu le fais sur une seule machine alors que ca a ete concu pour etre faire sur differente machine. C’est a dire j’ai des points de montage different et des que j’ecris sur un de ces points de montage la donnee est au moins copie une fois sur un autre point de montage.



et franchement avoir un backup sur le meme pc ca ne s’appel pas un backup…

normalement la protection local se fait par du raid (protection + performance) la protection dans le temps se fait par du snasphot ou du versioning et enfin la protection complete se fait par de la replication synchrone ou asynchrone.
Le rain est une methode de protection synchrone



Le 13/03/2013 à 21h 00






Oungawak a écrit :

Voilà ! Simple à mettre en place, ne sauvegarde que les données utiles, bien intégré à l’explorateur, se fait oublier en sauvegardant tout presque immédiatement (toutes les 10 minutes), versioning, possibilité d’utiliser un emplacement réseau, franchement ils ont fait un super boulot sur cette fonctionnalité. <img data-src=" />


Complémentaire c’est clair vu qu’ils ont des objectifs complètements différents. Après faire les deux, même pour un poweruser un RAID 1 ou 5 afin de pouvoir utiliser son PC sans discontinuer le seul jour où le DD fera un infarctus… C’est pas indispensable. Sans oublier quand même le RAID 0 pour envoyer la patate.


Hum, je suis pas sûr qu’on parle de la même chose (ou alors je t’ai pas compris). <img data-src=" /> Je ne fais pas de “RAID over network” (connais pas), je suis sur une unique machine et les DD sont bien deux lecteurs différents et non pas vu comme un seul lecteur virtuel.

Ensuite, pour ZFS, HDFS, GLUSTERFS, AHKJSQHDLFS et autre BOUGE-T-FS (pardon <img data-src=" />), oui je peut te croire qu’il existe des systèmes de fichier alien tellement évolués qu’ils peuvent même stocker une infinité de données sur un octet, mais je cherchais surtout une solution simple et intégrée à l’OS (presque… Faut installer le driver ReFS de Windows Server 2012 sur W8 x64). Et je me fiche qu’il sache faire le café en cluster, du moment qu’il est raisonnablement fiable ça suffira. (C’est d’ailleurs ce que MS avait cherché à faire avec ReFS il me semble, un système aussi simple que possible dans sa conception en ne gardant que les fonctions au ratio gain/complexité satisfaisant.)

Enfin, comme je l’ai dit, le RAID n’équivaut pas à une sauvegarde mais poursuit un but totalement différent, étant donné qu’il ne conserve pas un cliché intègre des données à un instant T mais maintient juste N disques dans le même état courant (corrompu ou pas) pour pouvoir jongler avec si l’un se barre en couille.



c’est la que tu te trompe sur les fs modernes les raids ne sont plus gere materiellement mais par le FS. Il suffit de lire mes articles sur zfs et tu verra que les données sont toujours consistantes sur disque grace a un raidz bien different du raid 5 que le systeme de fichier est en mode cow et surtout grace a un checksuming sur 256 bit (le meilleur de tous les FS y’a un super article du cern la dessus et je vais pas tarder a faire le mien).

Apres tu prend onefs la ca va encore plus loin puisqu’il n’y a pas vraiment de raid a proprement parler c’est juste un cluster de x machine et tu defini un niveau de protection (tu peux perdre jusqu’a 4 machines dans le cluster) et le niveau de protection la tu peux le definir au niveau de chaque fichier.

Bref refs c’est sympa mais c’est encore tres tres loin de ce que peut faire un vrai fs moderne.

C’est exactement le principe du rain sauf que toi tu le fais sur une seule machine alors que ca a ete concu pour etre faire sur differente machine. C’est a dire j’ai des points de montage different et des que j’ecris sur un de ces points de montage la donnee est au moins copie une fois sur un autre point de montage.



Le 13/03/2013 à 15h 17






Oungawak a écrit :

Les données sont dupliquées entre le DD interne et le rack et W8 se charge de mettre à jour la backup en permanence avec versioning des fichiers et checksum via ReFS (formaté avec “/i:enable”), donc les données sont en sécurité. A l’exception bien sûr d’une tornade sur ma maison ou les 2 disques qui pèteraient simultanément, mais ça un RAID n’y changerais rien… La seule vraie protection contre ça serait d’utiliser le DD de backup hors ligne (= régulièrement, on branche le DD, on lance une copie complète, on débranche et on le range en lieu sûr ; j’ai essayé, je le mettait jamais à jour, ça sert à rien pour les feignasses comme moi. <img data-src=" />) On peut éventuellement utiliser un backup distant pour automatiser, mais entre le prix, le débit nécessaire, le besoin de chiffrer pour éviter les regards indiscrets, et la probabilité qu’une tornade passe ou surtout que les 2 DD pètent simultanément (= le second pète avant que le premier ait pu être remplacé)…

Et je le répète : RAID != Backup. Beaucoup croient à tord qu’un RAID (même un RAID1 de 30 DD) sert à la sauvegarde, alors qu’il sert uniquement à la tolérance aux pannes pour éviter une interruption de service (ce qui est crucial dans un data-center par exemple).

Exemple
Un DD explose comme si trois A380 entraient en collision dans le ciel :
-&gt; Backup (DD de sauvegarde) = Tu rachètes un DD et tu relance ta backup, RAS
-&gt; Backup (DD de données) = Tu rachètes un DD et tu restaure ta backup, RAS
-&gt; RAID = Tu rachète un DD et tu resynchronise ton RAID, RAS

TOUS les DD explosent :
-&gt; Backup = Tu pleures (sauf backup hors ligne, vu que c’est impossible puisque le DD de backup est éteint)
-&gt; RAID = Tu pleures

Un virus broie tes fichiers, ton chat efface un fichier qu’il fallait pas en dormant sur le clavier, tu écrase maladroitement un fichier avec une mauvaise version, etc. :
-&gt; Backup = Tu restaures tes données, RAS
-&gt; RAID = Tu te fait suppuku en regardant ton RAID massacrer immédiatement tes données sur tout les DD simultanément tout en ronronnant paisiblement




Oui enfin tu parle de backup mais REfs ne fait que du rain c’est a dire du raid over network en realite c’est exactement le meme principe que du raid a la difference que tu le fais sur 2 machine distincte…

(gfs,hdfs,glusterfs utilisent ce principe de rain depuis bien longtemps)

Et niveau fonctionalite protection des donnees … REfs est bien loin d’egaler zfs.

Bref j’ai juste a faire des snapshots et des zfs send and receive et j’ai exactement la meme chose entre mes 2 nas je peux aller plus loin en rajoutant une couche drbd et dans ce cas j’ai non seulement une protection raid sur ma machine un gain de performance et j’ai aussi une copie instantanee sur ma deuxieme machine on pourrait dire que je fait du raid 61



Le 13/03/2013 à 10h 35






al_bebert a écrit :

http://www.cdiscount.com/informatique/boitiers-pc-alimentations/fusion-boitier-i…
pas tellement :)

après me reste aussi la solution du home made mais je manque de temps



j’avoue ca a l’air pas mal cette petite chose.
Apres faut voir la qualite du boitier la ventilation tout ca aussi.



Le 13/03/2013 à 10h 13






al_bebert a écrit :

edit plus possible :

le boitier que je cite est à 99$ plus le port…

soit plus chère que le boitier complet 14 baie de chez cdiscount donc bon …

le NAS va encore changer de boitier



Hehe ca coute cher un boitier quand meme… Moi au debut je voulais partir sur du supermicro sc836 ou sc846 puis quand j’ai vu les prix j’ai changer d’avis ensuite je voulais partir sur le lian A76 et quand j’ai commander les pieces j’avais comme objectif de rester en dessous de 2000 euros donc du changer a nouveau pour un fractal design r4 (8 disques + 3 ssds + 2 disques systems)



Le 13/03/2013 à 06h 19






Oungawak a écrit :

… Pfff. Je peux pas répondre.

Pour les intéressés en quête d’idée pour leur config’ :




  • Un SSD de 128 Go pour système/applications/swap (gain de perf’ énorme, 64 c’est trop peu pour mes applis/jeux habituels, 256 c’est cher pour être finalement sous-exploité, à ajuster selon les besoins de chacun évidemment)

  • Un rack interne/boitier USB/eSATA externe Icy Box avec un DD de 2To sous ReFS (NTFS si utilisé chez d’autres personnes) pour les données, qu’on peux trimballer sans faire de copie (et avec BitLocker au cas où je le paume)

  • Un DD interne de 3To sous ReFS dédié à l’Historique de fichiers de Windows 8 qui sauvegarde les données en continu avec versioning des fichiers (= un VRAI backup qu’on peut restaurer, pas un RAID servant uniquement à la tolérance aux pannes et ne proposant pas de restaurer une catastrophe sur les données mais juste de l’écrite en miroir à plusieurs exemplaires…). Astuce : Comme il est dédié, son lecteur est masqué dans l’explorateur à l’aide d’une clef de registre pour pas encombrer ou risquer une fausse manip’.

    Franchement, ça roxxe du poney avec du pâté de sa maman. <img data-src=" /> Je vous le recommande chaudement. <img data-src=" /> Et si le budget est trop élevé <img data-src=" /> : Remplacer le SSD par un petit HDD classique, réduire la capacité des DD données/backup et remplacer les fonctions de W8 par un bon outils de backup gratuit planifié pour s’exécuter tout seul régulièrement.



    Petite question, j’espere qu’il est en raid ton backup? Parce que si ton dd crash plus de backup.

    Dans ce cas je préfère encore avoir un raid avec filesystem qui fasse checksum + snapshot + replication.
    Ou mieux encore utilise un file system WORM. avec toutes les fonctionnalité cité juste avant



Le 12/03/2013 à 12h 55






methos1435 a écrit :

Ca doit pourtant exister mais j’ai pas encore trouvé. En théorie, c’est pas si dure à faire donc je comprend pas pourquoi ça n’a pas encore été proposé de façon simple. Le FS décide en fonctions de plusieurs critères où écrire: plus beaucoup de place sur le disque 1 ? J’écris sur le 2. Où le disque 2 est actuellement occupé en écriture, j’écris sur le 3 qui est moins sollicité pour augmenter garder un débit d’écriture correcte. Un RAID 0 mais en gardant les données dépendantes à un seul disque quoi….



ouep dans ce cas je regardera plus du cote de mount –bind et mount –maked-shared



Le 12/03/2013 à 12h 36






methos1435 a écrit :

Oui mais en cas d’écriture dans ce répertoire, où va le fichier ? Comment est décidé l’emplacement pour l’écriture ?



ah oui mais la nop ca marche pas pour l’ecriture.
Pour etre bien il faudra ecrire sur chaque disque et faire du load sharing. Puis refaire des liens.



Le 12/03/2013 à 12h 26






methos1435 a écrit :

Un lien symbolique fera apparaître deux répertoires.
Je fait systématiquement des rip de tous mes DVD et bluray. J’ai donc un répertoire FILMS sur mon nas. Pour l’instant j’ai encore de la place sur mon disque de 3To mais si je dois installer un second disque, un lien symbolique ferai apparaitre un répertoire (FILMS, FILMS2 ou n’importe quoi) à l’intérieur du répertoire FILMS, ce que je ne veux pas. J’aimerai avoir un seul répertoire FILMS correspondant au final à plusieurs disque, le FS étant libre après de stocker le fichier sur le disque 1, 2 ou x, mais en entier sur un seul disque pour ne perdre que le disque défaillant en c as de problème.



Pas forcement en realite oui tu aura bien 2 mountpoint pour tes disques maintenant rien ne t’empeche de faire un troisieme dossier rempli de symlink qui pointe vers tes 2 disques.

un truc du genre:

cd /film
ln -s /disk1/*
ln -s /disk2/*



Le 12/03/2013 à 12h 12






methos1435 a écrit :

Mes données ne sont pas suffisamment précieuses pour perdre un disque là dessus. Je cherche juste à rendre mes disques dispos sur un seul point de montage.



hum dans ce cas as tu pense a simplement faire des simlinks?



Le 12/03/2013 à 12h 02






lateo a écrit :

pour zfs et btrfs c’est directement au niveau du FS, donc c’est plus bas niveau que mdadm.
AMHA, rien à voir niveau fiabilité et perfs, au doigt mouillé je dirais que mdadm se fait enterrer purement et simplement par les FS “modernes“ que tu cites.



Je suis assez d’accord sur le principe (j’ai pas confiance en LVM non plus sur ce point d’ailleurs)



Le 12/03/2013 à 12h 01






methos1435 a écrit :

bind ne permet pas (du moins à ma connaissance) de monter plusieurs disques sur un seul et même point de montage.




Le RAID 0 ne correspond pas à ce que je cherche comme dit plus haut. Sur un RAID 0 un disque foire et c’est l’ensemble des données qui est perdu, même sur les disques non défaillants.



Dans ce cas il faut faire du raid1 c’est a dire un miroir.
Tu peux te permettre de perdre 1 disque et ca marche encore



Le 12/03/2013 à 11h 55






lateo a écrit :

Sous linux? mdadm pour faire du raid software.

J’en pense tellement de bien qu’avant d’investir dans un NAS j’utilisais une carte RAID à pas trop cher pour éviter de faire du RAID soft.
Après ce n’est que mon avis perso, des tas et des tas de gens se disent satisfaits de mdadm.



Bah aujourd’hui tous ce fait en soft tu prends nettap c’est du soft isilon c’est du soft zfs c’est du soft btrfs ca va aussi etre du soft.

Les cartes raid ne servent plus que de HBA bonne a presente les disques en jbods



Le 12/03/2013 à 10h 39






lateo a écrit :

j’ai jetté un oeil rapidos : ça semble sympa, mais il faudrait faire un petit effort de relecture pour que ça pique moins les yeux <img data-src=" />




arf deja owned sur l’orthographe.

Mais merci



Le 12/03/2013 à 10h 29






Latios a écrit :

Vu que ça parle de ZFS, c’est ce que j’utilise sur mon NAS home made.
Il est sous Debian Wheezy avec ZFS On Linux. C’est pas fait avec FUSE donc les performance sont très bonnes. Debian avec le noyau de FreeBSD c’est plus un proof of concept, je recommande pas pour de la prod.

Bref, zfsonlinux.org.



Bah quitte a faire du zfs autant prendre une distrib a base d’illumos et donc de soutenir le projet.

Parce que sans eux il n’y a plus de developpement de zfs, c’est pas oracle qui va fournir son code…

d’ailleurs je vais faire ma pub mais si vous voulez des infos sur zfs aller surhttp://noonworld.fr

Je commence juste le blog mais je travaille avec zfs depuis 2008 et si vous etes pas d’accord avec mes articles hesitez pas a le faire savoir.



Le 12/03/2013 à 09h 43

2 nas de 8Tb sur nexenta CE en replication.

Et bientot un troisieme NAS de 4tb mais etudie pour la performance (raid10 + ssd) pour mon homelab toujours sous nexenta CE


La situation s'améliore pour SimCity : 92 % de crashs en moins

Le 11/03/2013 à 09h 02






Lemon Pie a écrit :

Tes propos (comme les miens) n’engage que toi, car je le trouve aussi bon que SC4. <img data-src=" />



Moue alors la je comprends pas je me suis amuse a faire une “ville” ce week end donc voila j’ai mes 150K habitants j’ai toujours pas acces a la moitie des batiments parce qu’il manque ceci ou cela… Le probleme c’est que j’ai plus de place.

Et m’amuser a cree d’autre vill et passe mon temps a switcher entre mes villes c’est pas specialement interessant.

Si au moins lorsque tu pouvais manager simulatenement les viles de ta region en temps reel pourquoi pas. mais la juste non quoi



Le 11/03/2013 à 08h 02






vida18 a écrit :

La version 4 du jeu est disponible sur Steam mais pas la version 5. Pourquoi ce choix ?



Pis bon soyons clair en l’etat actuelle sim city 4 est bien meilleur que sim city 5.



[Tech Days] The Geek is in the House, du NAS Winology au casque d'Iron Man

Le 18/02/2013 à 05h 10






ragoutoutou a écrit :

C’est clair que c’est une solution intéressante pour qui ne connaît pas trop le monde linux ou veut faire un vrai domaine AD sans se prendre la tête. De même, Storage Space a l’air suffisamment élaboré et flaxible pour excuser les décennies de désert technologique au niveau stockage chez Microsoft.

Maintenant, si ce n’est ni pour faire un usage intensif des services cloud Microsoft ni pour mettre en place une infra AD native, ni pour utiliser des logiciels serveurs exclusifs Windows, c’est peut-être un investissement à ne pas faire. mais du coup l’investissement financier se transformera souvent en investissement de temps.



Moue enfin en attendant c’est eux qui ont du appele leur propre support et qui ont perdu des donnees, pas moi. Donc l’excuse du temps tu m’excusera mais plus je bosse dans l’informatique et plus je me rends compte que c’est le contraire.
Il y a tellement de couche d’abstraction que plus personne sait comment sa marche et des que y’a un petit bug c’est go support. La ou en general dans le monde unix un petit tour sur le net + check des logs suffira



Le 17/02/2013 à 15h 43






djiize a écrit :

Je comparais ce boîtier serveur à un NAS (Synology), pas à un autre serveur (OpenIndiana). Le Winology est un serveur, OpenIndiana est une distrib serveur, ce n’est pas un NAS.

Je connais très bien les distribs typées “stockage”, elles ont toutes leurs avantages et inconvénients, à chacun de choisir le bon outil pour son boulot.

Et 350€ pour une licence Windows Server, cela n’a rien d’exorbitant.

PS: le backup bare-metal, tu le fais comment avec OpenIndiana ?



Tout ce que j’ai a faire c’est de faire un snapshot de mon pool puis de faire un zfs send and receive sur un autre zfs pool. Je ne vois pas ou est le probleme…
De plus sur un systeme de ce type j’utiliserai des zones ou du kvm pour mes applications.

Pi bon je parle pas du checksuming de l’hyprid storage pool de la compression a la vole de la deduplication a la vole…

Ce n’est pas pour rien que aujourd’hui zfs est le file system qui gere le plus de storage dans le monde



Le 16/02/2013 à 21h 38

Bon j’ai quand meme regarde la video. Et meme si ils sont drole ils ont presente ce que j’ai chez moi depuis 2 ans maintenant. Bravo microsoft.


Le 16/02/2013 à 20h 56






djiize a écrit :

Comme tu l’as dit, un serveur qui fait NAS … entre autre. Il ne s’agit pas de reproduire un NAS avec un serveur, il s’agit d’intégrer cette fonctionnalité et plein d’autres.

Enfin, un NAS qui ferait du stockage virtuel (Storage Spaces), de la déduplication, des backups bare-metal des postes clients, … j’ai pas encore vu.

Et je n’ai pas critiqué l’utilité des NAS, ce sont de très bons boîtiers de stockage (certaines marques), mais quand on a besoin de plus, artillerie lourde…



Hum alors il faudra m’expliquer ce qu’il a de si révolutionnaire ce nas par rapport au meme boitier avec un openindiana dessus (d’un cote vous avez une licence au prix exhorbitant de l’autre un OS gratuit avec un systeme de fichier qui a deja fait ces preuves dans le monde du stockage…)



Le récap' des tests : zoom sur les solutions de stockage

Le 09/02/2013 à 11h 39






Latios a écrit :

Y’a aucun problème avec les disques 4k, tant qu’on oublie pas le -o ashift=12 au zpool create et zpool add <img data-src=" />
Tous les disques vendus actuellement sont des 4k de toute façon.



Depend de ta distrib en realite. Sur du nexenta il faut patcher le kernel par exemple.
Avec illumos se n’est plus necessaire



Le 09/02/2013 à 11h 16






Latios a écrit :

Au contraire, je trouve que c’est un vrai plaisir à administrer <img data-src=" />
Mais c’est vrai que c’est plus facile de faire une connerie avec ZFS qu’avec MD+LVM (on se plante en rajoutant un device, bim le pool; on active la déduplication sans avoir un trouzillon de RAM, bim le pool ; on se plante sur le ashift à la création/ajout de device ; bim les performances ; etc.).


Mon NAS est sous Debian Wheezy + ZFS On Linux, aucun problème particulier à ce jour <img data-src=" />
Et les performances roxxent grave : en lecture, je sature deux liens GigabitEthernet en bonding. Vivement que le 10GigabitEthernet se démocratise pour le grand public !



Ah mais moi aussi je suis un fan absolu de ZFS (il suffit de demander a mon chef pour le savoir xD).

Maintenant il faut bien comprendre qu’il n’est pas possible d’aggrandir un vdev, qu’il ne faut pas melanger les differents types de vdev dans un zpool, que pour faire du sync il faut un slog qu’il faut compter 2Gb de ram pour le systeme et ensuite 1Gb de ram par Tb de data (2 Gb de ram par Tb de data si on a de la dedup), que les nouveaux disques en 4k sont plus ou moins bien supporter …

Maintenant voila on se retrouve avec un vrai nas enterprise a la maison avec toutes les features de compression inline de dedup inline de checksuming d’hybrid pool de replication de gestion de quota…. pour un tarif plus que reduit



Le 08/02/2013 à 07h 43






keneda212 a écrit :

pfff n’importe quoi
se monter sa propre machine pour en faire un NAS couterai 3x moins cher vide (ce que j’ai fais)
certe, je ne peux mettre que 8 disques dedans mais elle est aussi petite
niveau perf, j’ai largement plus que ce que NAS fourni …

Certes, il faut tout “programmer” a la main, mais certains distribs comme freeNAS sont largement facile a utiliser

Pour les disques, j’ai mis des 7200.14 3to qui était a 120 euro sur mat.net



Beaucoup moins cher oui et non, si tu as utilise freenas c’est donc que tu as du zfs. Et zfs n’est pas si simple que ca a manager (du moins si on veut le faire proprement) de plus ca reste un file system qui est gourmand en ressource.

Et c’est un veritable adorateur de zfs qui le dis (2 nas nexenta en replication a la maison, des vms nexenta 4 beta en test et le projet de me faire un vrai nas performance en // pour une infra virtu)
Mais j’en suis venu a ne plus le conseille car la plupart des gens a qui je l’ai conseiller on fait n’importe quoi et ensuite te dise ah mais sa marche pas…



Le 08/02/2013 à 05h 18






cityhunter67 a écrit :

Concernant le test du Vector pourquoi le tester avec un Samsung 830 alors qu’un 840 Pro plus performant et plus proche, de peur de froisser OCZ et que les testeurs du site ne pourront plus beneficier gratuitement de SSD pour leur test <img data-src=" />

Edit : je prefere ce test personnellement
http://www.pcworld.fr/stockage/tests,test-ocz-vector-ssd-256-go,533585,1.htm




Si tu veux un test vraiment potable c’est celui la:

http://www.storagereview.com/ocz_vector_ssd_review



Revue de presse : que vaut la Surface Pro de Microsoft sous Windows 8 Pro ?

Le 06/02/2013 à 13h 59






BreizFenrir a écrit :

La Surface Pro fait tout ce que ton laptop 13 pouces fait (peut-être avec un peu moins de patate, mais j’ai pas lu de comparatif, et sans doute un peu moins de confort, taille d’écran oblige, quand bien même il est bien défini). Donc non, elle n’est pas limité à l’usage “traitement de texte” ; mais oui, il faut avoir l’utilité du mode “tablette” pour qu’il s’agisse d’un produit intéressant.

De fait, je pense aussi que son marché est fort limité comparé à d’autres produits. Mais il y en a sans doute à qui elle servira.



Moue j’ai quand meme l’impression que pour l’utiliser vraiment en mode travail il faut lui ajouter un clavier, un deuxieme ecran un disque dur externe un adapteur usb-&gt;rj45 et on se retrouve quand meme avec un cpu limite et pas de ram donc pour moi niveau job c’est clairement non deja.

Apres comme je le dis mon petit 13 pouces a la maison doit faire 1kg2, il a un vrai clavier un ecran plus grand un meilleur cpu plus d’espace de stocakge et plus rapide une meilleur cg … et je maintient que le tout tactile sa ralentit vachement finalement.

Donc je le le redis pour MOI cette espece d’hybride ne reunis pas le meilleur des 2 mondes mais bien le pire (tros grand/lourd et pas assez d’autonomie pour une tablette, trop petit pas assez puissant pour une utilisation travail)



Le 06/02/2013 à 10h 30

Sans moi,
j’ai deja achete une tablette qui finalement a part telecommande universelle ne me sert strictement a rien trop limite pis ce tout tactile qu’elle perte de temps phenomal.

Alors oui on peut ajouter un clavier mais dans ce cas autant prendre un bon laptop 13 pouces qui en a un peu plus dans le corps.

Parce que paye 900$ pour pouvoir faire du traitement de texte heu merci mais non


ASRock FM2A85X-ITX : une carte mère Mini ITX avec 7 ports S-ATA 6 Gb/s

Le 15/01/2013 à 15h 28






Obelixator a écrit :

Je pense aussi <img data-src=" />



bah tu prends un vieux pentium avec tdp de 65 watts ca compte pas la aussi.
faut prendre les cpu de la gamme T qui consomme a peu pres la meme chose qu’un e450



Le 15/01/2013 à 15h 10






Noun29 a écrit :

Un combo asus h77 + intel core i3 3220T + samuel 17 + carte intel pro 1000 ou carte controleur 2 sata (controleur sil3124) suivant que l’on souhaite une bonne carte reseau ou plus de disque ne coutera pas beaucoup plus cher et sera bien plus performant que ca avec du raid software (enfin moi c’est clairement l’upgrade que je ne vais pas tarder a faire, j’hesite juste entre cette mobo et la jetway mais le prix de la jetway me calme vraiment)

Un pentium 2020t (qui vient d’etre annoncer) et une carte mere a base de h61 sera probablement beaucoup moins cher et moins consomatrice que le couple i3 h77.

Apres oui ca consommera surement un peu plus




Le 15/01/2013 à 15h 01






Obelixator a écrit :

Quand j’ai commencé à m’intéresser aux NAS “perso” RAID5, je suis rapidement tombé sur ce genre de CM, certes chères, mais basse-conso et supportant le RAID5 HW ou pseudo-HW (je crois qu’il en existe plusieurs niveaux) … par contre, en cherchant mieux, ceci m’a refroidi :

Depuis, j’ai pas réussi à savoir si il existait des pilotes fiables sous distribs spécialisées NAS pour gérer ce genre de CM <img data-src=" />



Un combo asus h77 + intel core i3 3220T + samuel 17 + carte intel pro 1000 ou carte controleur 2 sata (controleur sil3124) suivant que l’on souhaite une bonne carte reseau ou plus de disque ne coutera pas beaucoup plus cher et sera bien plus performant que ca avec du raid software (enfin moi c’est clairement l’upgrade que je ne vais pas tarder a faire, j’hesite juste entre cette mobo et la jetway mais le prix de la jetway me calme vraiment)

Apres oui ca consommera surement un peu plus



Le 15/01/2013 à 13h 58






Tourner.lapache a écrit :

Tout dépend de tes besoins, tu peux faire du RAID logiciel aussi si nécessaire.
De mon coté, je ne suis pas spécialement fan du RAID 15 pour l’utilisation d’un NAS maison, le coté “sauvegarde en temps réel” ne m’intéresse pas et je préfère encore planifier un synchro toutes les semaines entre le disque dur actif et un disque dur branché mais 99% du temps au repos. (voir même débranché et stocké ailleurs avec une synchro mensuelle)

EDIT : il semblerait que le RAID software marche pas mal sous linux ou BSD :http://www.overclock.net/t/1279524/asus-c60m1-i-ultimate-nas-board

Ce qu’il faut voir avec le RAID matériel sur une CM comme celle-ci, c’est que si c’est la CM qui merde, il te faudra trouver la même CM pour récupérer ton RAID.



Oui mdadm marche tres bien sous linux maintenant faire un nas pour finir avec ca: I get 20-40 MB/s transfer speeds over gigabit LAN pour moi perso il y a un soucis quelquepart dans son infra quand meme.
Et la plupart du temps sur le site les gars ne parlent que de raid0 (super utile le raid0 pour un nas ou comment perdre ces donnees dans l’annee xD).

Bref je veux bien croire que le c60 suffise mais je veux d’abord avoir une preuve ou on le voit gerer un raid 5 de 5 disques ou bien un raid10 de 6 disques et que a la sortie du nas en nfs je tape environ 90 Mo/s



Le 15/01/2013 à 13h 16






Obelixator a écrit :

Plus tu parles, plus ça ressemble à du chinois pour moi <img data-src=" /> ce qui confirme donc que le ZFS, c’est vraiment pas fait pour moi <img data-src=" />



Mais non t’inquiete pas il suffit de jouer un peu avec, et maintenant il y a des interfaces web pour faciliter le tout.



Le 15/01/2013 à 13h 08






Obelixator a écrit :

Pour tes besoins, OK <img data-src=" />
Mais là, ZFS, ça semble un peu superflux pour la plupart des particuliers <img data-src=" />




Ah mais je ne dis pas le contraire, d’ailleurs il faut bien se renseigner avant de prendre du zfs car il y’a beaucoup de chose a savoir sur la consomation memoire cpu, comment grouper les disques… Et si c’est mal fait apres on entend zfs c’est nul… (non tu ne sait juste pas l’utilise).

Mais bon il me reste un probleme, pas de HA cluster gratuit pour l’instant meme si sa peut etre bypass en rajoutant 2 noeuds linux avec glusterFS devant (interconnecte au zfs en infiniband de preference)



Le 15/01/2013 à 12h 32






Obelixator a écrit :

Disons qu’il faudrait mettre en regard la différence de prix et de consommation électrique entre un NAS du commerce 5 baies (600~700€, ~20W au repos, ~50W en charge) et une configuration “perso” (Prix total et consommation ?) …

Grosso-modo, sur 1 an, tu peux considérer que la différence sur la facture EDF sera de 0,9€ par Watt de différence … Alors ça peut vite chiffrer sur la durée de vie du produit <img data-src=" />


C’est aussi un point à ne pas négliger <img data-src=" />
Le RAID géré en Hardware sur les CM “grand-public”, c’est pas courant, et quand ça existe (en RAID5 par exemple), il n’est pas dit que l’OS spécialisé qu’on aura choisi sera capable de le piloter (J’ai souvenir de quelques témoignages rencontrés sur les forums spécialisés au sujet de chipsets Intel NM10, si mes souvenirs sont bons) …
AMHA, le RAID c’est comme la décompression vidéo, ça va bouffer plus d’énergie et nécessiter un gros processeur si c’est pas géré en Hardware …

Tout mis à bout (Différence de Conso, RAID HW, Complexité de mise en oeuvre, etc…), plus je me renseigne sur les NAS, plus je me dis qu’une machine “perso” vaut de plus en plus rarement le coup <img data-src=" />



Oui et non personelement je ne changerai pour rien au monde mon zfs contre un nas du commerce.

Pour la simple raison que zfs ca a ete fait pour de l’entreprise. Et que je peux donc m’amuser avec, que j’ai une securite des donnees (alors raid bien sur mais surtout un checksum de fou qui empeche la silent corruption). Que si je veux je peux faire de l’hybride pool de la compression du snapshot de la deduplication … Et ensuite il ne faut pas oublier les perfs … L’upgrade, par exemple demain je change de boitier je rajoute une carte LSI et hop je passe a 16 disques dans mon nas.



Le 15/01/2013 à 10h 51






Citan666 a écrit :

ENFIN une carte FM2 en mini-itx valable !! J’attendais ça depuis ma Zotac AM3 (invendue en France d’ailleurs, c’était la galère pour la choper).

Un conseil d’assemblage à base d’AMD pour un pc multimédia compact et évolutif avec processeur récent est à nouveau possible. Merci Asrock ! <img data-src=" />


Hmm, mon expérience perso est que les procos AMD ont une conso bien contenue à faible charge. Donc si un proco en FM2 est “surpuissant” pour un usage NAS (ce qui me semble être le cas, vu que généralement les offres de NAS prémontées sont à base d’Atom), on peut supposer que la charge donc la conso resteront faibles. Non ?



Surpuissant, je m’etais dis la meme chose et pris une carte mere asus E45m1 (donc avec un amd e450), bah je peux t’assurer que je suis cpu limited (+ probleme de reseau aussi).

Ca depend avec quoi tu fais ton nas. Si tu fais raid software il faut calculer la parite, ensuite ton protocole nfs cifs prend aussi du cpu si derriere tu as de la compression ou de la dedup du checksuming … bah c’est pas un petit cpu qu’il faut.

Moi tout ce que j’attends la c’est un peu de budget et repasser le tout sur du core i3 3230T.



Le 15/01/2013 à 10h 01

nickel pour un fractal design r2.

Par contre AMD et opensolaris… en plus avoir un cpu avec carte graphique dans un nas ce n’est pas non plus le top.

A qunand une CM intel mini itx avec une carte reseau intel un socket lga 1155 et plus de 4 ports sata.

Oui je sais il en existe deja une (JetWay JNF9E-Q77) mais je voulais dire avec un tarif raisonnable xD


Nokia retrouve des couleurs et augmente ses ventes de Asha et de Lumia

Le 10/01/2013 à 16h 01






Enyths a écrit :

Nokia, les prophètes de PCInpact ont dit que c’était fini ! Alors arrête de redresser la barre, merci.

Plus sérieusement, j’attends les nouveaux Lumia pour me décider, il y a des rumeurs qui évoquent de l’aluminium pour le corps. Si c’est le cas, on peut avoir des produits avec une ligne très séduisante.



Heu attendez les mecs nokia ce releve???

On parle du 4eme trimestre donc periode de noel, toutes leur cartouches wp8 2012 dehors les mecs ils en font 4.4 M et ils trouvent le moyen de vendre plus du double de smartphone asha (donc telephone plus vendu par personne).


Faudra m’expliquez comment on peut dire que c’est une bonne nouvelle de passe de 2.9M a 4.4M alors que entre temps tu as eu la periode de fete les campagnes de pub…

d’ailleurs 4.4 -2.9 = 1.5 &lt; 9.3 -6.6 = 2.7 donc ils ont eu une plus grosse progression des ventes d’asha que de lumia.

Mais oui tout va bien pour nokia



[MàJ] Nokia précise ses propos sur son accord exclusif avec Microsoft

Le 08/01/2013 à 10h 49

de toute facon si les annonces de tomi ahmonen par rapport au ventes de lumia au Q4 ce n’est pas sur qu’il est de prochain nokia…

En gros c’est comme pour WP7 tout le monde est la oue ca va etre super et au final personne n’en veut des ces choses.


Wii U : des ventes « solides » selon Satoru Iwata, le président de Nintendo

Le 07/01/2013 à 14h 19






mightmagic a écrit :

La wii était une console over hypée grâce au fait que le contrôleur était un joujou de gosse original pour le grand public (alors que ça existait depuis 1 ou 2 années sur PC) et que le fait de pouvoir mimer (mimer seulement car c’était ultra limité) des mouvements réels a entrainer de forte vente.

La wiiu n’a plus ce type de gadget et donc forcément l’attrait est moindre.



n’en deplaise a certains la wii n’etait pas une si mauvaise console que ca, entre les jeux tendo et les jrpgs sortis certe tardivement mais sorti quand meme.

Bref toujours la meme rengaine venant de pseudos joueurs qui appel la wii une console de casual alors que c’est sony et sa ps2 qui ont amene le casualgaming.

P.S ce n’est pas pqrce que tu joues 10H par semaine a PES et QUE a PES toute l’annee que tu peux te considere comme un gamer par rapport a quelqu’un qui fait du mario ou du nintendoland…



Ubuntu pour smartphones se dévoile et affiche ses ambitions

Le 03/01/2013 à 15h 13






jun a écrit :

Oula excuses moi, je suis bien au courant de ça, je me suis juste très mal exprimé, j’avais encore webOS en tête.



Je suis concepteur d’expérience utilisateur de profession, donc tu comprendras bien mon point de vu.

Le fait d’être dispo sur un OS en particulier, est déjà une spécificité de l’UI.
Je n’ai jamais vu, à ma connaissance, une appli JAVA profiter des spécificités d’OSX (exemple : le dock) ou d’ubuntu (exemple : unity) .



Désolé pour mes collègues développeurs, mais ma ma profession m’impose de penser avant tout aux utilisateurs.

Je comprends bien la problématique du développeur tout de même.



Ca en UX, et accessoirement en marketing, c’est inadmissible, en donnant l’impression que le produit n’est pas finis, voire de mauvaise facture.
Dans le concret, seule des boîtes avec les reins très solide peuvent survivre à ça (exemple facebook qui avait miser sur une appli en HTML sur IOS).



Bien entendu, mais les pré-requis de WP sont tellement stricte que la platforme est quasiment aussi fermé qu’iOS, on est loin d’un os détaché du hardware à la vente.



Je suis pas certains de comprendre, tu leur reproches de faire ce que font pas mal d’autres contributeurs à linux ?

Je suis pas convaincu que IBM ou Oracle commit du code pour que tu puisses aller chez le concurrent… C’est juste plus sournois et détourné chez eux…



Bouh vilain ! Tu te dis accro à la ligne de commande et tu installes encore des distro avec un desktop ! Tu me feras dix ave maria sur un navigateur en mode texte pour te repentir !



Malheureusement ce n’est pas aussi vrai. Je completerai de la manière suivante :
“La différence du côté de linux, c’est que la diversité permet d’avoir des solutions adaptées à chaque usage… Tant que tu bosses dans l’informatique…”.




Mais t’y pas fou toi ? Tu veux que le monde finisse pas être peuplé de hippis barbus ?



Bah ecoute je t’avoue que le media center full ligne de commande c’est quand meme pas ca xD



Le 03/01/2013 à 14h 57






Lafisk a écrit :

marrant, car il ce vend pourtant bien … oui certe pas autant qu’un GS3 ou un Iphone, mais ça ce vend carrément mieux que les précédent WP7 … WP8 à encore beaucoup à faire pour se vendre mais ni l’os ni le matos n’a rien à envier à la concurrence



hum la derniere analyse de tomi ahonen sur wp8 au 4eme trimestre est juste catastrophique.
on verra lors de l’annonce des vrai resulat mais si il a raison c’est juste la mort de nokia.

http://communities-dominate.blogs.com/



Le 03/01/2013 à 14h 43






Lafisk a écrit :

La fermeture est un faux défaut hein, les réels utilisateurs n’en ont que faire de l’ouverture d’un système

Aucun WP8 qui peut faire face aux hardwares de S3 iphone 5, tu oublies pas le 920 toi, même l’iphone 5 est derrière … qui est d’ailleur très loin de ce qu’il a pu être il fut un temps



Bah le 920 reste un gros bide quand meme surtour lorsque l’on sait que c’est wp8 qui le bride completement et que l’on a vue de quoi est capable la techno pureview avec le 808.



Le 03/01/2013 à 14h 06






misterB a écrit :

Sur les news Windows ou OSX, on voit bcp de linux User vouloir que leur os prennent des PDM à ces deux OS prorios, mais sur les news linux ça se bat souvent sur quelle distrib va poutrer les autres.

Concernant les drivers si ils sont bien fait et aidés par la communauté je ne vois pas pourquoi ils plomberaient la machine, de même que foutraient ils tous dans le noyau ? Un installeur spécifique au matos n’est il pas possible ?



Ca ce serait cool, mais sa reviendrait a faire une recompilation complete a l’installation comme un gentoo ou un LFS. Mais c’est vrait que celui qui arrivera a automatiser tout cela ce sera genial.

Zorak Zoran a écrit :

C’est fou de lire un truc pareil.
A chaque news sur PCinpact t’as toujours un rassemblement de barbus en train de couiner “nianiania c’est pas libre ça pue”, mais en fait vous en pensez pas un mot.

Cela ne te plairait pas que le plus grand nombre de gens possible basculent sur une distrib quelconque, tu te sentirais moins spécial ?



C’est pas une histoire de ce sentir special ou pas, c’est une histoire que certain os sont meilleurs dans certaines taches que d’en d’autres c’est tout. Je ne vois pas le probleme la dedans.
Tout comme certains filesystem sont meilleurs dans certaines taches que dans d’autres.
Alors pourquoi absolument vouloir rendre un truc qui est performant dans ce qu’il fait c’est a dire le monde du serveur en autre chose completement generic?



Le 03/01/2013 à 13h 41






misterB a écrit :

Comment faire que linux devienne populaire, si la majorité de la communauté tend a se refermer sur elle même, en crachant sur la seule boite essayant vraiment de rendre une distrib accessible a tous ?<img data-src=" /><img data-src=" />



la c’est un avis completement personnel mais pourquoi vouloir a tous prix que linux deviennent quelque chose de grand public?

moi j’aime ma ligne de commande et mes bidouilles.

de plus devenir grand public ca veut dire quoi un noyeau de plus en plus gros avec des tonnes de drivers qui servent a rien des applications tout aussi inutiles avec les integrations facebook et tout le toutim … tout ca pour quoi au final ralentir l’ensemble et le rendre instable???

Je ne sais pas si les rapports de MS etaient vrai mais lorsqu’on voyait que la moitie des crashs de windows 7 venaient des drivers …



Le 03/01/2013 à 13h 38






seb2411 a écrit :

Noyau 3.7 :
Nbr de Patch : 19eme
Nbr de lignes changes : 17eme
http://www.remword.com/kps_result/index.php



facile de reprendre juste le dernier kernel qui t’arange bien.

Si on regarde les stats depuis 2005 canonical est 53 eme avec 0.28% du Nbr de changement de ligne (meme nettapp est devant).
Effectivement on sent toute l’implication de canonical dans le noyeau linux xD



Le 03/01/2013 à 13h 24






seb2411 a écrit :

Avant de trouver de nouvelles preuves il faut trouver les premières. A moins que le fait de ne pas participer au noyau Linux soit une preuve (en plus c’est faux)? Du coup je suppose que Microsoft est un point de référence des société pour les logiciels libres ? Avoir un SDK et faciliter le travail des devs d’applications, c’est mal aussi parce que c’est comme Apple ? Avoir un OS multiplateforme, c’est mal juste parce que Apple fait pareil ?

Qu’a fait Canonical depuis le début ?




  • Permettre a pas mal de monde d’utiliser une distribution Linux qui fonctionne

  • Faire connaitre GNU/Linux

  • Avoir des machines vendus avec une distribution Linux

  • Faire attention au Desktop et essayer de faire plus attention aux détails

  • Ils participent au Noyau Linux egalement (malgré une idée reçu), sont en partie a l’origine du groupement Linaro qui a permit d’Unifier le support d’Arm sous Linux

  • Ils ont un certains nombre de projets libre qui sont maintenues et disponible pour la communautés.

    Mais bizarrement il faut forcement les accuser depuis des années de tout les mots. On a tout vu passer : Ils vont rendre leur distribution payante, être racheté par Google, Microsoft et d’autres, ils veulent saborder les paquets Deb, Ils fonts que du proprio, etc…



    Hum cette annee ils ne sont meme pas dans les 30 plus gros contributeurs du noyau linux donc non il n’y contribue pas, c’est pas en faisant 2 lignes de codes par an sur le noyeau que l’on peut dire oue c’est ok.

    Ensuite faire connaitre gnu/linux mais a qui??? Aujourd’hui la part de desktop sous linux est toujours inferieur a 2% donc j’aimerai vraiment savoir si il y a autant de personne que ca qui ont rejoint linux grace a ubuntu.

    Au niveau des machines lorsque tu vois les prix de ces fameuses machines sous linux il est parfois meilleur d’acheter un windows et de refaire l’install soi meme, le mieux restant bien sur un modele du genre sager ou clevo livrer sans OS

    Apres je suis d’accord sur un point c’est plus facile avec ubuntu (et encore) et c’est plus a jour qu’une red hat (est ce vraiment un avantage)



Le 03/01/2013 à 12h 44






jun a écrit :

Je ne comprendrais jamais cette arlésienne qui veut qu’un développeur développe un fois pour toutes les plateformes. Et encore moins le choix de language interprété sur des machines où les ressources sont limités…

D’abord pour les une appli “universel” comme en JAVA par exemple, on voit bien que vite l’appli ne “parle pas le language de l’os” (je parle de language graphique, d’interaction, etc). Catastrophique pour l’expérience utilisateur.

Ensuite pour le language interprété, je fais partie de ceux qui sont convaincus que c’est pas parce que les ordinateurs ont de plus en plus de ressources, qu’on doit aussi utiliser plus de ressources dans une appli pour la même chose qu’avant (le fameux syndrome office, faut même qu’un éditeur de texte rame !). En ce sens, j’ai un gros doute sur les performances de HTML5… Language qui n’est pas prévu pour faire de l’interface mais pour hiérarchiser des données… On reste loin des possibilité en terme de performance qu’on peut trouver avec un language de plus bas niveau comme ObjectiveC.



Est ce que le grand publique est prêt à ça ?

On voit déjà le cas avec l’offre bordélique de MS pour ses tablettes surface, incompréhensible par le commun des mortelles.

Et en termes d’expérience utilisateur, ça peut devenir bien bordélique :




  • Gestion des ressources moins performante, l’os devant gérer moulte possibilité hardware.

  • Des écrans hétérogène, non contrôlé (résolution, forme, etc), donc une interface devant faire des compromis, non homogènes en fonction des terminaux… (On commence à le voir sur android).

    Sans parler de problème de compatibilité…

    Oui, ça peut apporter des avantages à des bidouilleurs, mais ça apporterait aussi pas mal d’inconvénient à la majorité, à mes yeux…



    Peux tu développer ton idée, ça m’intéresse.



    C’est ce que voudrais la logique. Mais des surprises peuvent arriver =).



    Tu oublies S40, le dernier système de nokia pour smartphone d’entrée de gamme, et qui vient de faire un carton en Inde, au Cambodge, et pas mal d’autre pays de l’hémisphère sud.



    Je veux dire qu’a reellement fait canonical ces dernieres annees? Participer au noyeau linux? absolument pas
    par contre ils ont cree une nouvelle interface rien qu’a eux qui est maintenant celle par default a l’installation,
    il s ont crees les services ubuntuOne, ils essayent de s’introduire sur le marche des TVs maintenant des telephones, il y a aussi leur fameux spyware…
    Pour moi sa ressemble fort a on va vous faire un ecosysteme bien a nous mais comme on se base sur linux nous on est des gentils par contre si tu veux que ca marche il faut absolument passe par nos services qui eux sont payant.
    (Apres je suis peut etre parano aussi mais ca fait 45 ans maintenant que je reste persuade que le but de canonical est de faire la meme chose qu’apple)

    Et je pense qu’en cherchant un peu plus on peut vite trouver de nouvelles “preuve”



Le 03/01/2013 à 09h 54

c’est un peu je pique des idees a droite et a gauche (en particulier meego je trouve) et je trouve le moyen d’en faire un truc qui rame.

De plus je me mefie clairement de canonical qui pour moi reste un apple deguise sans le succes.

Bref j’attends beaucoup plus de jolla


Electronic Arts dans la tourmente en raison de son « Projet Honor »

Le 29/12/2012 à 11h 03






gavroche69 a écrit :

La population de la Finlande et de la Suisse réunies, ça représente environ 16 millions d’individus, la population Américaine c’est environ 315 millions …

No comment… <img data-src=" />

Tu viens de découvrir qu’il y a moins d’accidents sur les routes désertes que sur les routes à très grande circulation, bravo… <img data-src=" />



Ok dans ce cas il y a moins de meurtre par amres a feu en UK ou en france ou au canada que dans la ville de new york qui est pourtant considere comme la ville la plus sure des US.

Pourtant new york c’est 16M d’hab alors que l’uk c’est 65, le canada 35 la france 60 …

Bref si on prend les 30 pays les plus riches la population americaine ne represente plus que 30% et pourtant 80% des meurtres par arme a feu y sont commis.