En ce qui me concerne, abonne free mobile (16.99) du premier jour, et j’en suis pleinement satisfait, même en data. Et même si le reseau n’est pas tout le temps au top (mais c’est le cas d’absolument tous les opérateurs), je préfère très largement payer moins cher, car après tout c’est bien ce point la que Free met en avant et sur lequel aucun des 3 autres n’arrive à s’aligner… Et là il n’y a pas d’embrouille sur la facture (ce qui n’est pas forcément le cas des autres).
Sinon quelqu’un a compris comment en piratant un compte twitter un gars a pu avoir accés a 200 Mo d’images et du code source ??? Le gars se sert de twitter pour stocker toute l’infrastructure de sa boite ? " />
Il faut évidemment lire “s’écoulait”, l’expression “s’écoulait en quantité” existe, mais je n’ai jamais entendu l’expression “s’écroulait en quantité”… " />
Sélectionnez à l’écran la zone à sauver et ensuite cliquez dans la zone “rechercher”. Faire défiler jusque tout en dessous et là… oh magie… “Rendre cette zone du plan disponible hors connexion”! That’s it! " />
Sauf qu’il n’y a pas de gestion des zones déjà sauvegardés (pas de liste pour les gérer/renommer/verifier que c’est bien enregistré), et moi je parlais des cartes personnalisés, pas des cartes offline: la possibilité d’afficher des cartes avec des points d’interets annotés par l’utilisateur. Je suis un gros consommateur de ce genre de cartes pour chaque voyage.
Les fans arrivent bien à traduire toutes les séries en h+24 donc pourquoi pas de la vostfr, avec un service dédié à la traduction ça doit être jouable.
Le seul truc de nouveau là dedans, c’est l’interface plutôt ergonomique et pratique mais la technique est super ancienne et déjà utilisée par pas mal de logiciels, notamment pour la correction automatique de perspective (redresser un monument dont la photo a été prise du sol, par exemple).
Si tu parle du caméra mapping evidemment que ca existe depuis longtemps, mais la tu passe à coté de tout ce qui fait l’innovation et l’intérêt de cette nouvelle techno, faut quand même pas être bouché à ce point… Cite moi un seul logiciel de modelisation 3D capable de faire de la reconstruction aussi facilement à partir d’une seule photo ! Perso j’en connais qu’un seul, qui a été developpé par Realviz, puis racheté et avalé par Autodesk. Et il a maintenant disparu du marché.
Par rapport au soft de Realviz qui était une tuerie, celui la va encore 2 fois plus loin avec la detection auto des formes et des contours.
Si ça fonctionne bien ça va être vite racheter reste à savoir par qui.
Bah la réponse est facile: Autodesk. Ils ont rachetés tous les logiciels 3D ces 10 dernières années… Y compris la compagnie Realviz qui avait un outil un peu de ce genre.
Le titre en gras directement au dessus de l’image incite le lecteur à regarder l’image pour comparer et à juger par lui même.
Le texte en dessous de l’image confirme ce que le lecteur peut voir : l’image H265 est moins bonne que l’image H264 mais n’apporte pas la mise en garde cruciale (les débits n’ont pas été réglés, la comparaison des images n’a aucun sens !)
En l’occurence c’est l’inverse, quand tu compare l’image originale a la version h264 et h265, la version h265 est de loin la plus fidèle (cf le detail des comparaisons).
Ah j’imagine le mec qui perçoit des images floues et sans détail en regardant un film mais qui est tout content parce qu’en fait quand il ouvre une des images sous Photoshop il s’aperçoit qu’en renforçant le contraste ou d’autres trucs les détails sont bien là.
C’est à la limite du comique non ? " />
…euh, je crois que tu n’as pas bien compris le but du test " />
En recontrastant l’image pour refaire apparaitre les détails, le but de la manoeuvre était de montrer que le h265 n’avait PAS perdus les détails mais que les paramètres de contraste/sharpen étaient différents entre les 2 encodeurs, ce n’est donc pas une faiblesse du h265 mais simplement une histoire de réglages de bases mal faits (la faute à DivX en l’occurence).
Du coup si tu te base sur ton seul “ressenti”, non quantifiable, tu laisse la porte ouvertes à toutes les abberations type renforcement artificiels des détails comme le fait la version h264 quand on compare à l’original:http://img15.hostingpics.net/pics/908984tearsofsteel4kcropcomp.png
Revois toutes les parties que j’avais annotés précédemment, tu verra que la version h265 est beaucoup plus fidèle à l’originale que la h264 sur tous les plans: bavures, artefacts, niveau de détail.
Dans la zone rouge, on voit clairement les méchants artefacts que se prend le h264, absents de la version h264
Dans la zone verte, on voit que contrairement à ce qu’on pourrait penser de prime abord, le h265 n’a perdu aucun détail, puisqu’en recontrastant ils apparaissent tout autant que dans la version h264.
Dans la zone bleue, on voit que le h264 a mal géré les zones avec peu de textures: très délavés, et pertes de contours entre zones de luminosités très proche qui partent dans le flou. La version h265 est beaucoup plus précise.
C’est pas du flou (perte de détails) mais un contraste moins important tout simplement. Si tu recontraste l’image tu verra autant de détails, et moins pourris d’artefacts que dans la version h264.
Jvais faire une image commentée, ca sera plus clair.
si seulement il existe ce flou, règle ton écran avant.
Avant en 720p (et en SD) pour compenser le manque de qualité, la TV augmentait le flou (je t’assure, les forum spécialisés en parle).
Les navigateurs n’ont qu’un rendu suffisant, j’ai donc regardé ça sous un autre logiciel.
(c’est à la mode de se faire traiter de troll dès qu’ont émet une idée contraire à l’idée global, surtout par des gens de passage)
Je vais dans ton sens, effectivement en ouvrant le png dans un onglet à part et en zoomant on s’aperçoit qu’il n’y a pas de perte de détail, juste un contraste différent. Et la version HEVC se paye même le luxe d’être plus propre, cf par exemple le spot blanc en haut a droite qui est pourri d’artefacts dans la version h264, ou le dessous de tôle gris vert en bas a droite de l’image qui malgrés l’absence de détails dans les 2 cas, est bien plus propre/précis et moins délavé en HEVC qu’en h264.
C’est plutot très encourageant, le fichier HEVC est à la fois moins lourd et plus propre !
Sinon ca serait bien qu’ils remettent toutes les features qu’ils ont virés dans Google Map… Genre les maps personalisés ! Impossible d’y accéder depuis la nouvelle version Android/Web… Au point que j’ai du faire un rollback sur les 2 plateformes :/
brazomyna: à la base je demi-trollais (je reconnais que Java est certainement plus simples dans certains domaines) pour contrebalancer ta réponse à malock que je trouvais un peu condescendante; tu cite à multiple reprises le “monde pro”, mais en ce qui me concerne le “monde pro” en terme de développement c’est tout sauf de la gestion/finance ou autres SSIIeries. Sortie de ces quelques domaines (qui représentent hélas la majorité du marché du travail) les autres secteurs du développement ont besoin de beaucoup plus de contrôle et de performance que ne peux en offrir Java: traitement 2d, 3d, vidéo, son, crypto, développement de systèmes desktop, embarqués et mobiles, etc, etc, etc.
Java est utilisé dans le milieu pro dans 90% des cas pour J2EE, un truc qui est justement totalement en dehors du domaine de compétence de Qt.
Mais c’est un détail, tout comme le vivier de développeurs disponibles sur le marché de l’emploi pour l’une et l’autre techno, les capacités d’introspection de Java, la quantité de librairies tierces existantes orientées ‘besoins pro, info de gestion’, etc…
Mais t’as sûrement raison envers et contre une bonne partie de ceux qui ont opté pour telle techno plutôt qu’une autre: ceux-là sont tous des incompétents qui ne choisissent que pour de mauvaises raisons.
Heureusement que toi tu as la vraie, l’unique réponse universelle pour tous les projets, les besoins, de tout temps, et que ton altruisme t’a amené à venir nous la partager ici bas: “Java reste intrinsèquement de la merde” " />
Par rapport à J2EE il n’y a rien qui soit infaisable avec Qt puisqu’il repose sur C++, qui s’interface avec tout et pour lequel une chiadé de bibliotheque existe. Par contre l’inverse n’est pas vrai, si une fonction n’est pas dispo en java (quelle que soit sa déclinaison) tu ne pourras pas aussi facilement l’étendre (surtout si tu as besoin d’accéder à des périphériques/protocoles un peu exotiques).
Le vivier de développeurs disponibles n’a pas d’influence sur la qualité intrinsèque des languages/framework.
Les IDE modernes ont toutes les capacités d’introspection nécessaires pour la majorité des langages courants (dont le C++). Qt Creator est d’ailleurs spécialisé dans l’introspection C++/Qt.
Les librairies tierces sont bien plus importantes en C++ qu’en Java, tout domaine confondu, et surtout dans le milieu pro qui nécessite des performances et une ouverture que seul le C++ peut offrir.
Beaucoups d’entreprises ne font que reproduire par habitude les technos qu’elles voient dans leur milieu, sans se poser plus de questions. Le nombre de dev java supérieurs au nombre de devs C++ joue aussi. Mais encore une fois, dans tous les cas ça ne rend pas Java meilleur…
Java reste un language interprété (donc aux performances forcément limités) et limité aux bibliothèques qui ont été concus pour lui.
Je vois pas le rapport entre l’experience de malock et brazomyna par rapport à la comparaison Java/Qt: dans l’absolu, à part dans de rares cas Java reste intrinsèquement de la merde, la ou Qt ne cesse de gagner en capacités, en perfs et en support. Toute l’expérience du monde ne change pas grand chose à ce constat, et on est heureusement pas obligé de se taper du Java pour pouvoir travailler au sein d’une boite, ou monter la sienne.
Gros utilisateur de Qt j’ai testé chaque build 5.x.x sur Windows/Mac et la 5.1 apporte enfin la maturité à Qt5 ! On arrive au niveau de stabilité de Qt 4.8.x, avec quelques ajouts bien sympa même sur desktop (gestion Retina, version x64, nouvelles classes, etc…). Qt Creator continue aussi son bout de chemin et n’a pas à rougir face à l’IDE de Microsoft -il est même bien plus agréable à utiliser, à mon sens-.
Je faisais du TEMPEST quand j’étais à l’armée, et pas besoin de sondes directement dans l’ambassade, une sonde sur une canalisation, tuyaux de chaufferie, etc, à 200m de là, qui vont vers l’ambassade et tu entends pas mal de choses… " />
Les gens qui travaillent pour/grâce à Facebook travaillent dans le domaine des nouvelles technologies et sont donc parfaitement capable de rebondir si FB fermait, faut arrêter ce genre d’arguments à toutes les sauces… On parle pas d’ouvriers qui n’ont qu’une usine dans leur secteur pour survivre.
Une partie de ce volume est proportionnel à la durée des animations. Ici les animations se répètent mais si ton jeu a vingt heures de jeu d’acteur motion-capturé, ça doit représenter un joli volume de données pour l’animation du visage.
Il me semble que tu es passé à coté de la spécifité de cette capture: de ce que j’ai compris, toutes les animations que tu vois dans cette démo, y compris les 2 phrases à la fin, sont générés à partir des 30 expressions de bases qui ont été capturés au préalable.
Les 400MB permettent donc de générer un nombre infinis d’animations, en enchainant à la volée ces expressions.
J’y vois d’avantage la qualité de la (micro-motion) capture. Et pour le rendu ils balancent des données brutes (super gourmandes niveau mémoire) sur un morph-target.
Donc niveau hardware, ce que je vois c’est une bande passante de ouf.
Pour une application du type jeu vidéo, ont est encore loin (à moins de vouloir télécharger des jeux d’1TB, ET d’avoir RAM et disque qui puissent répondrent) .
Je n’ai pas compris la même chose: dans la démo ils disent que l’ensemble des donnés de base (géométrie, textures, animations, etc) est compressé en 400MB.
Ces 400MB sont ensuite chargé intégralement en VRAM, il n’y a donc plus de contrainte de bande passante, toute l’opération de synthèse et de rendu se passant uniquement du coté GPU.
Il suffirait donc de 400MB pour chaque visage, si tu compte 3 à 5 personnages principaux dans un jeu vidéo c’est pas énorme, on arriverait à 1 ou 2GB de données, rien d’insurmontable à notre époque ou les jeux vidéo pèsent déjà 12GB…
Je trouve qu’ils n’ont pas encore totalement remontés la pente de l’uncanny valley, ça reste quand même un peu bizarre à regarder sauf quand il parle où ça devient carrément impressionnant et naturel (là, ils ont dû faire de la face capture sans rien retoucher).
La démo en elle même c’est justement ce moment ou il parle hein, pas les séquences qui sont montrés avant (qui ne sont que des enregistrements bruts de l’acteur, pour le coup). Et c’est bien la le coeur de la démo: l’animation de la phrase est généré entièrement à partir des petits bouts d’expression montrés avant, l’acteur n’a pas été enregistré disant cette phrase.
Mettre seulement un screenshot de la demo visage dans l’article, c’est passer à coté de 95% de la démo qui cible l’animation du visage et non le rendu… Ce rendu on l’avait deja 2 générations de GPU avant hein, pas la peine de s’extasier sur l’image.
Ah ben c’est intéressant. Donc le mauvais deal de leur part, ça a été de céder tous ces droits? Ou bien tu fonctionnes en autonome, donc sony n’as pas moyen d’abuser à ce point je suppose?
En ce qui me concerne j’ai autofinancé mon soft pendant 3 ans, donc le produit existait déja clé en main (ou presque) quand un accord a été trouvé avec Sony. Sony se sert bien sur chaque vente, mais je m’y retrouve sans problème par rapport au marketing deployé.
D’autre part il s’agit d’un soft pro et non d’un jeu, donc j’imagine que j’échappe aussi à certains couts irréductibles (contenu, kit de dev et part de Steam/PS Store).
Mais $1M d’avance sur recette, j’ai quand meme l’impression que thatgamecompany a bizarrement géré son budget pour un jeu “indie”… Beaucoup de projets de jeu Kickstarter se financent avec bien moins que ça, surtout quand tu sais d’avance que chaque dollars qui t’es avancé ne se retrouvera pas dans ta poche une fois le jeu en vente.
Comme quoi l’autofinancement low-cost reste malgré tout la voie royale au final… J’ai toujours trouvé vachement risqué de faire reposer le développement d’un produit sur une avance sur recette (surtout quand elle est aussi conséquente), que ce soit en terme de revenu ou de propriété intellectuelle.
Alors oui on galère plus en autofinancement, et ça met peut-être plus de temps, mais au final on s’y retrouve quand même mieux une fois le produit finis.
(NB: je suis moi même dev indé distribué par Sony, mais mon contrat n’a visiblement rien en commun avec celui de thatgamecompany… Donc c’est vraiment du cas par cas j’imagine)
Ouais enfin là à part sur chrome ça ne roule pas du tout :(
IE ou opera pour uploader et télécharger un fichier de 30Mo, j’ai essayé 4 fois sur chaque sur différents ordis, impossible….. Au final j’ai été obligé d’installer chrominium pour télécharger le fichier… :(
Essaye en desactivant les transferts SSL dans les paramètres Mega, chez moi ça a résolu tous les problèmes de transfert !
Comme quelqu’un l’a souligné plus haut, en quoi le fait de crypter les fichiers est plus sécurisé dans la mesure ou les serveurs de Mega stockent aussi la clé de decryptage ? A aucun moment je n’ai recu de clé à stocker sur mon ordi…
La différence avec Box et DropBox (gratuis) aussi c’est que les fichiers ne sont pas limité à 200/300mo, et c’est une grosse différence pour pas mal d’applications mine de rien.
En ce qui me concerne je cherche à archiver plusieurs fichiers entre 500Mo et 2Go, gratuitement, et pouvoir y accéder n’importe ou.
Un FTP perso, outre le fait qu’il faille le configurer ne peut me fournir qu’un debit misérable, Hubic est techniquement déficient, seul Mega peut me proposer ca à l’heure actuelle.
446 commentaires
Le 05/12/2013 à 12h39
En ce qui me concerne, abonne free mobile (16.99) du premier jour, et j’en suis pleinement satisfait, même en data. Et même si le reseau n’est pas tout le temps au top (mais c’est le cas d’absolument tous les opérateurs), je préfère très largement payer moins cher, car après tout c’est bien ce point la que Free met en avant et sur lequel aucun des 3 autres n’arrive à s’aligner… Et là il n’y a pas d’embrouille sur la facture (ce qui n’est pas forcément le cas des autres).
Le 14/10/2013 à 16h01
Sinon quelqu’un a compris comment en piratant un compte twitter un gars a pu avoir accés a 200 Mo d’images et du code source ??? Le gars se sert de twitter pour stocker toute l’infrastructure de sa boite ?
" />
Le 13/10/2013 à 08h26
Ouai enfin 72€/an ça fait cher quand tu veux limiter les frais.. Moi je paye mon hebergement OVH 15€/an.
Le 13/10/2013 à 08h23
Il faut évidemment lire “s’écoulait”, l’expression “s’écoulait en quantité” existe, mais je n’ai jamais entendu l’expression “s’écroulait en quantité”…
" />
Le 11/10/2013 à 12h52
Dommage, j’aurai bien vu une offre à 14.28/an avec 20Go de stockage…
" />
Le 10/10/2013 à 09h36
Et toujours pas la consultation/création de maps personnalisés…
" />
Le 16/09/2013 à 16h13
Le 16/09/2013 à 14h16
Et toujours pas de cartes personnalisés comme avec l’ancienne version… Quelle regression :/
Le 12/09/2013 à 12h40
Les fans arrivent bien à traduire toutes les séries en h+24 donc pourquoi pas de la vostfr, avec un service dédié à la traduction ça doit être jouable.
Le 12/09/2013 à 08h06
Le 11/09/2013 à 12h57
Le 11/09/2013 à 12h54
Le 08/09/2013 à 07h59
Le 07/09/2013 à 08h52
Bien d’accord avec toi sur l’intérêt du 4K ;)
Aucun intérêt à moins d’avoir un écran IMAX chez soi ou d’être collé à l’écran…
Le 07/09/2013 à 08h11
Le 06/09/2013 à 19h28
Voila la version annotée de la comparaison:http://uppix.net/3UU9Ty.png
Dans la zone rouge, on voit clairement les méchants artefacts que se prend le h264, absents de la version h264
Dans la zone verte, on voit que contrairement à ce qu’on pourrait penser de prime abord, le h265 n’a perdu aucun détail, puisqu’en recontrastant ils apparaissent tout autant que dans la version h264.
Dans la zone bleue, on voit que le h264 a mal géré les zones avec peu de textures: très délavés, et pertes de contours entre zones de luminosités très proche qui partent dans le flou. La version h265 est beaucoup plus précise.
Le 06/09/2013 à 19h12
C’est pas du flou (perte de détails) mais un contraste moins important tout simplement. Si tu recontraste l’image tu verra autant de détails, et moins pourris d’artefacts que dans la version h264.
Jvais faire une image commentée, ca sera plus clair.
Le 06/09/2013 à 19h04
Le 06/09/2013 à 15h22
C’est dénaturer le film la création de ces images intermédiaires, d’autant que tous les algos meme offline créent des aberrations.
Le 27/08/2013 à 10h45
Bordel, mais qu’ils limitent le seuil pour les seuls artisans autoentrepreneurs et laissent les autres autoentrepreneurs tranquille !
Pellerin qui défend cette réforme, elle descend dans mon estime…
Le 22/08/2013 à 10h33
Le 20/08/2013 à 16h58
Détruire les disques durs pour détruire l’information… HAHA c’est vraiment la meilleure de l’année celle la
" />
Sinon il peuvent aussi frapper l’écran avec un marteau pour faire disparaitre les articles….
Le 09/08/2013 à 16h36
Sinon ca serait bien qu’ils remettent toutes les features qu’ils ont virés dans Google Map… Genre les maps personalisés ! Impossible d’y accéder depuis la nouvelle version Android/Web… Au point que j’ai du faire un rollback sur les 2 plateformes :/
Le 11/07/2013 à 15h15
Sauf qu’a l’étranger ca coute vite…
Le 11/07/2013 à 10h41
Et on on voit ou les cartes offlines sauvegardés ? C’est quand meme une enorme regression la !
Le 11/07/2013 à 10h37
Arg, les cartes personnalisées ont disparus !! :/ c’est quoi ce bordel…
Le 10/07/2013 à 13h43
Parait ok maps ne sauvegarde que le niveau actuel de zoom, vrai ou pas ?
Le 05/07/2013 à 16h23
brazomyna: à la base je demi-trollais (je reconnais que Java est certainement plus simples dans certains domaines) pour contrebalancer ta réponse à malock que je trouvais un peu condescendante; tu cite à multiple reprises le “monde pro”, mais en ce qui me concerne le “monde pro” en terme de développement c’est tout sauf de la gestion/finance ou autres SSIIeries. Sortie de ces quelques domaines (qui représentent hélas la majorité du marché du travail) les autres secteurs du développement ont besoin de beaucoup plus de contrôle et de performance que ne peux en offrir Java: traitement 2d, 3d, vidéo, son, crypto, développement de systèmes desktop, embarqués et mobiles, etc, etc, etc.
Le 05/07/2013 à 15h11
Le 05/07/2013 à 14h08
Je vois pas le rapport entre l’experience de malock et brazomyna par rapport à la comparaison Java/Qt: dans l’absolu, à part dans de rares cas Java reste intrinsèquement de la merde, la ou Qt ne cesse de gagner en capacités, en perfs et en support. Toute l’expérience du monde ne change pas grand chose à ce constat, et on est heureusement pas obligé de se taper du Java pour pouvoir travailler au sein d’une boite, ou monter la sienne.
Le 05/07/2013 à 12h52
Heureusement qu’on peut gagner sa vie en programmant pour autre chose que des SSII/banques/assurances (pour lesquels Qt a d’ailleurs peut d’intérêt).
Parce que si le seul intérêt de dev en Cobol c’est de gagner plus d’argent tout en se faisant chier…
Le 05/07/2013 à 11h34
Gros utilisateur de Qt j’ai testé chaque build 5.x.x sur Windows/Mac et la 5.1 apporte enfin la maturité à Qt5 ! On arrive au niveau de stabilité de Qt 4.8.x, avec quelques ajouts bien sympa même sur desktop (gestion Retina, version x64, nouvelles classes, etc…). Qt Creator continue aussi son bout de chemin et n’a pas à rougir face à l’IDE de Microsoft -il est même bien plus agréable à utiliser, à mon sens-.
Le 02/07/2013 à 09h55
Le 17/05/2013 à 05h57
Les gens qui travaillent pour/grâce à Facebook travaillent dans le domaine des nouvelles technologies et sont donc parfaitement capable de rebondir si FB fermait, faut arrêter ce genre d’arguments à toutes les sauces… On parle pas d’ouvriers qui n’ont qu’une usine dans leur secteur pour survivre.
Le 20/03/2013 à 14h52
Le 20/03/2013 à 13h17
Le 20/03/2013 à 11h51
Le 20/03/2013 à 09h07
Le 20/03/2013 à 08h20
Mettre seulement un screenshot de la demo visage dans l’article, c’est passer à coté de 95% de la démo qui cible l’animation du visage et non le rendu… Ce rendu on l’avait deja 2 générations de GPU avant hein, pas la peine de s’extasier sur l’image.
Plus de détails (et la video surtout) ici:http://blogs.nvidia.com/2013/03/a-demo-thats-truly-a-head-of-its-time/
Le 14/03/2013 à 15h56
Décidemment BenQ est en forme coté Full HD 3D…
Il y a quelques mois ils ont sortis le vidéoprojecteur W1070 qui est aussi une vraie tuerie !
Le 14/03/2013 à 11h06
Le 13/03/2013 à 12h35
Le 13/03/2013 à 11h51
Comme quoi l’autofinancement low-cost reste malgré tout la voie royale au final… J’ai toujours trouvé vachement risqué de faire reposer le développement d’un produit sur une avance sur recette (surtout quand elle est aussi conséquente), que ce soit en terme de revenu ou de propriété intellectuelle.
Alors oui on galère plus en autofinancement, et ça met peut-être plus de temps, mais au final on s’y retrouve quand même mieux une fois le produit finis.
(NB: je suis moi même dev indé distribué par Sony, mais mon contrat n’a visiblement rien en commun avec celui de thatgamecompany… Donc c’est vraiment du cas par cas j’imagine)
Le 02/02/2013 à 08h21
Le 31/01/2013 à 16h06
Sinon quelqu’un arrive à uploader de gros fichiers (>500mo) sans que l’upload recommence à 0% une fois arrivé à 99% ? Ca me rend fou…
Pour info je suis en ADSL sur la Freebox Revolution.
Le 28/01/2013 à 18h01
Ca reste toujours très lent et instable Hubic malheureusement…
Par exemple aujourd’hui j’ai essayé d’uploader un fichier de 3Go, arrivé à 95% et quelque il recommence à zero: les boules !
J’espère beaucoup de Mega du coup (pour l’instant pas réussi à uploader un fichier de 500mo ceci dit).
Le 21/01/2013 à 21h47
Ah ouai donc c’est bien bidon le chiffrement 2048bit si seul le pass utilisateur est la seule vraie clé stocké hors du serveur.
Le 21/01/2013 à 18h31
Comme quelqu’un l’a souligné plus haut, en quoi le fait de crypter les fichiers est plus sécurisé dans la mesure ou les serveurs de Mega stockent aussi la clé de decryptage ? A aucun moment je n’ai recu de clé à stocker sur mon ordi…
Le 21/01/2013 à 12h50
La différence avec Box et DropBox (gratuis) aussi c’est que les fichiers ne sont pas limité à 200/300mo, et c’est une grosse différence pour pas mal d’applications mine de rien.
En ce qui me concerne je cherche à archiver plusieurs fichiers entre 500Mo et 2Go, gratuitement, et pouvoir y accéder n’importe ou.
Un FTP perso, outre le fait qu’il faille le configurer ne peut me fournir qu’un debit misérable, Hubic est techniquement déficient, seul Mega peut me proposer ca à l’heure actuelle.
Le 21/01/2013 à 12h47