votre avatar

Riicolaaa

est avec nous depuis le 29 avril 2014 ❤️

11 commentaires

Le 02/05/2014 à 14h 28







WereWindle a écrit :



oui mais sauf à pirater les master directement chez la boite de prod/l’éditeur, la contrefaçon se fait forcément comme ça.



Analogie bagnolesque de bon aloi : c’est comme si, te faisant poursuivre pour vol de voiture, on te reprochait 1/ d’avoir contourné le système qui ferme les portes, 2/ d’avoir contourné le système faisant que tu as besoin d’une clé pour démarrer et 3/ d’avoir volé la caisse.



Si on peut dépiauter un fait général et poursuivre (et ce faisant, toucher des D&I sur) chacune des étapes, ça me semble une pente glissante.







Pas exactement, le premier délit c’est une sorte de contre façon, le second est de diffuser cette contre façon.



Tu pourrais très bien diffuser un contenu acquis légalement, c’est le cas lorsque tu achètes des MP3 sur amazon que tu partages ensuite.



Les deux délits ne se recouvrent donc pas, même si l’un est dépendant de l’autre.


Le 02/05/2014 à 13h 49







WereWindle a écrit :



C’est moi ou les deux chefs se recoupent ?

Le premier dit, en gros, qu’il a diffusé un truc qui ne lui appartenait pas. (ie contrefaçon classique de la part d’un particulier)



Le second qu’il a souscrit un abo résidentiel au satellite et s’en est servi pour exploiter commercialement les émissions (ie contrefaçon par un professionel par violation de licence)







Si je comprends bien, le premier reproche est qu’il ai partager les vidéos librement sur le net, en tirant un bénéfice de ce partage.

Le second est qu’il ai extrait illégalement les vidéos du diffuseur de contenu.



En somme, pour faire un parallèle:

* délit 1: tu récupères un flux audio sur Deezer pour le transformer en MP3

* délit 2: tu le partages sur le net et en tirant un profit financier au passage





Je peux me tromper mais c’est comme ça que je comprends le truc


Le 30/04/2014 à 09h 00







m_spot a écrit :



Euh, c’est quoi la différence entre un pc gamming et une steam-machine ? Perso je vois pas la différence ! <img data-src=" />







Je pense qu’il faut voir la steam machine comme une sorte de console que tu peux monter toi même.

Du coup le coté compacte est important


Le 30/04/2014 à 08h 08







Commentaire_supprime a écrit :



Cela m’intéresse comme logiciel.



Ce que j’en ai compris, c’est qu’il faut une distro support pour le serveur, et un client sur sa machine.



Je me ferais bien mon serveur avec un petit HP Proliant customisé avec une Debian minimale, tiens !







Ca marche assez bien :)



Niveau installation, c’est une bête appli php qui nécessite quelques modules, tu peux l’installer sur ce que tu veux.

J’ai pas regardé mais je pense même qu’on peut le faire faire fonctionner sur un serveur mutu


Le 30/04/2014 à 08h 01







Commentaire_supprime a écrit :



C’est logique comme recentrage. Le marché des smartphones est saturé, autant le larguer.



Nokia a de bons potentiels dans le domaine des réseaux et de la cartographie, ils ont compris que c’était leur atout.







+1


Le 30/04/2014 à 07h 11







loulnux a écrit :



J’adore les mecs qui essaient de m’expliquer mon métier.







Bon c’est ma dernière réponse pour toi… <img data-src=" />



Je vais être simple: tu ne réponds à aucun argument technique et n’en avance aucun. Tu confonds bits et Bytes, ne comprends pas qu’un NAS qui a une vitesse de lecture à 80Mo/sec dans le meilleur de cas (lecture d’un seul fichier, dans le mode RAID le plus performant, avec tous les disques qui appartiennent à la grappe…) n’est pas saturé par un réseau qui peut monté à plus de 100Mo/s… <img data-src=" />



Alors je ne sais pas quel est ton métier, mais ça n’est visiblement pas du réseau.

En dehors des questions de réseau, pour ne pas comprendre que 80 &lt; 100, tu ne dois pas vraiment être un technique non plus.



Pour reprendre ta phrase, j’adore les mecs qui n’argumentent pas leurs propos, ne répondent pas à ce qu’on leur dit et ne se remettent pas en question.

Tu en déduiras ce que tu veux, mais si c’est ça ton métier il y a effectivement des choses à t’expliquer <img data-src=" />


Le 29/04/2014 à 15h 50







loulnux a écrit :



Ma réponse est simple : évidemment dans une entreprise ou il n’y a que quelques bases de données et courriers ou rapports à sauvegarder par jour, la performance n’a pas lieu d’être remise en question; moi qui ai exercé dans l’impression grand format, et qui oeuvre aujourd’hui dans la vidéo, je peux te dire qu’avec ce type de données on commence à envisager les problèmes d’une autre manière.

Par ailleurs il n’y a pas de secret, l’avènement du BR et du 4K va rendre le problème de plus en plus épineux même chez les particuliers. Quand on a à faire transiter un fichier de 2Go , ça reste dans la transparence, 8Go on le sent déjà plus, mais 50 ou 100Go là ça commence à coincer quand on voit des smartphones OPPO ou Nokia qui commencent à intégrer des capteurs 2K de là à voir une exception devenir une mode puis une généralisation: le gros fichier est déjà une préoccupation pour le commun des mortels.







Je comprends bien ces problématiques.

Il n’empêche que sans configuration particulière, ton particulier seul ne saturera pas le lien Giga, et donc encore moins un lien 10G, sans compté que le NAS en lui même n’est pas capable de soutenir des débits supérieurs à ce que propose l’Ethernet Gigabit.



A partir de là tu peux mettre des interfaces 10G, tu ne verras pas de différence sauf sur le prix.



Donc ma réponse est simple aussi: dans le cas où la performance est source de préoccupation pour l’entreprise (ou le particulier), il est important de se poser des bonnes questions pour identifier ce qui limite les performances et comment les augmenter.

Ce n’est pas parce que tu places une micheline sur une voie de TGV qu’elle va faire du 300km/h. Tu t’assures jusque que ce ne sera plus ce critère qui te limitera, mais si ce n’était pas lui qui te bloquait tu n’iras pas plus vite.



A coté de ça, je n’ai jamais dénigré l’intérêt d’augmenter les débits, c’est juste que ce simple critère ne te servira en rien.

Pour t’en convaincre regarde comment on calcule le débit d’une connection TCP en fonction de la latence et de la MTU. Après il y a des améliorations comme les Windows, les connexions parallèle, etc… mais cela t’aidera certainement à comprendre les limitations.



Et une dernière fois, même si tu as un réseau 10G performant, c’est le NAS qui ne suivra pas (et je ne parle même pas du PC ou téléphone de ton utilisateur qui seront encore moins performant que le NAS).



Il est évident que les besoins évoluent et qu’il faut trouver des solutions. Mais là pour le coup la solution est plus compliqué que ça…


Le 29/04/2014 à 13h 29







loulnux a écrit :



Partant du principe d’une part qu’on n’est pas sensé être seuls sur un réseau qu’il faut bien laisser un peu de bande passante aux autres usagers ou plus simplement aux autres usages et qu’aujourd’hui les performances des disques dépassent largement celles de cette bande passante, je ne trouve pas idiot de mettre l’accent sur cette bizarrerie consistant à nous vendre du stockage de plus en plus performant sans pouvoir en bénéficier en réseau local.

D’ailleurs tu noteras que le NAS décrit comporte 4 ports Gigalan mais je suis à peu près certain que la plupart des utilisateurs n’ont aucune idée de ce à quoi ils pourraient servir.

C’est aussi pour ça que j’appelle de mes voeux un 10GBaseT “non administré” car l’important n’est pas de commencer à savoir si le jumbo frame apportera son lot d’amélioration ou à quel point le ISCSI ou le Bonding apporteront leur lot d’améliorations, l’important c’est : tu branches et ça fonctionne vite et bien.







Dans ce cas je te rejoints sur plusieurs points, mais la limite de bande passante n’interviendra que dans quelques cas précis: il faut que tu ais un certain nombre d’utilisateurs qui fassent des transferts important de manière simultanée et de façon suffisamment longue.

Même dans une PME de 20~25 personnes manipulant de gros fichiers cela devrait peu ou pas se produire.

Ainsi le passage à du 10GB n’apportera pour ainsi dire rien, en tout cas sans optimisations, mais augmentera le coût de NAS et de ton infra réseau.



Déjà dans beaucoup de “grandes” entreprises l’usage d’un réseau Giga correctement configurer suffit amplement pour l’archi système, je ne suis pas sûr de l’intérêt en pratique d’avoir du 10G sur un NAS qui n’intéressera que les PME.



Je comprends bien ce que tu veux dire, mais je suis pas convaincu du rapport coût/effets bénéfiques réels.

D’autant plus que les tests montrent (je regardé uniquement quelques graphes) que les perfs du NAS ne permettent pas de saturer un réseau Giga en lecture ou en écriture.

En écriture on atteint 130MB/sec quelque soit le mode RAID ce qui s’explique certainement par l’usage d’un cache, qui n’a pas pu servir pour le lecture (65~80MB/sec). Une fois ce cache saturé on peut facilement imaginer que les perfs en écritures tombent assez franchement.

Si tu ajoutes à cela les accès concurrents de XX utilisateurs qui vont diviser les performances, le gigabit est largement suffisant.



Après, c’est mon point de vu et mes conclusions techniques, je conçois que je puisse me tromper.

(Ma seconde réponse venait de ta remarque bits ~ octets que je voulais corriger.)


Le 29/04/2014 à 12h 17







-zardoz- a écrit :



Un point qui n’a pas été soulevé jusqu’ici (il me semble) c’est la durée de reconstruction d’un volume selon la taille du disque à reconstruire ?



Déjà avec un grappe de 10 disques sur un NAS professionnel donc assez performant même en RAID 6 et avec des SAS de 2 To, ça peut prendre une bonne journée, alors que la grappe est en exploitation par ailleurs (mais c’est le but) !



Je me demande donc sur un tout petit NAS, 4 disques de 4To avec un proc forcément rachitique, combien de temps cela prendrait-il ? Et pour peu qu’on soit en RAID 5 (compte tenu du nombre de disques le RAID 6, ne doit pas être très avantageux par rapport à un RAID 0+1). N’y-a t’il pas un risque d’avoir une seconde panne pendant la reconstruction du volume, si ça doit prendre plusieurs jours ?



Si c’est la cas, il faudrait bien recommander de choisir une autre configuration : Par exemple, plutôt que 4 disques de 4To (soit 12To dispo), choisir un NAS avec au moins 8 disques (je crois pas que 7 existe), de 2 To, soit 12 To aussi si on garde un en “spare” ?







Je ne sais pas comment fonctionnent les NAS Syno, mais le RAID n’est-il pas géré en Hardware?

Si c’est bien le cas (ce qui serait le seul critère justifiant le prix), c’est une puce optimisé qui doit s’occuper de ces calculs et logiquement ça doit aller très vite.

Après sur des disques plein à 4To, ça prends quand même au minimum le temps d’écrire 4To de données sur le disque…


Le 29/04/2014 à 12h 10







loulnux a écrit :



A 120Mo/sec tu satures déjà j’ai peur que tu confondes bit et Byte même avec Jumbo Frame tu ne feras pas beaucoup mieux.







Non non je confond pas, 1Gbit / 8 = 0.125 soit environ 120Mo ou 120MB si tu veux…

Sur un réseau en Giga, si tu exprimes de débit en bits bah en théorie tu le satures à 1G comme son nom l’indique.

Après c’est vrai qu’en pratique c’est saturé plus vite, aux alentour de 100~110Mo.



Les jumbo frame permettent de dépasser la limite de taille des paquets ethernet ce qui permet d’augmenter grandement les débits en TCP (sans outrepasser la limite du support physique).


Le 29/04/2014 à 08h 01







atomusk a écrit :



Mais oui, ici on dirait qu’ils essayent de viser les grosses boites (700€ quand même), sans s’en donner les moyens “techniques” (l’alim redondante est un must dans les grosses boites).







Tout dépend ce que tu appelles grosses boîtes: pour moi une solution de stockage ça se compte en K€… A 700€ ça vise bien les PME







Anna Lefeuk a écrit :



Le goulot d’étrangelement c’est désormais le débit LAN, et le Giga depuis trop light. m’en vais regarder le prix des switchs actifs en 10G cuivre mais j’ai peur que cela pique un peu les yeux !







Il faudrait déjà que tu satures ton réseau Giga (~120Mo/sec en théorie) ce qui est très rarement le cas.

Pour atteindre la limite il faut utiliser des jumbo frame, taille de la Window TCP, avoir une très bonne latence, et que ça suive au niveau applicatif… (les partages type Windows ce n’est pas trop ça par exemple).

Le passage à du 10G ne t’apportera strictement rien, sauf la sympathie du mec qui te revendra le matériel et le désespoir de ton comptable.

Et pour le coup, on tombe vraiment sur du matériel pro, qui vise plus haut qu’un simple NAS (aussi bien soit-il)