votre avatar

divide

est avec nous depuis le 11 juillet 2009 ❤️

446 commentaires

Le 05/12/2013 à 12h 39

En ce qui me concerne, abonne free mobile (16.99) du premier jour, et j’en suis pleinement satisfait, même en data. Et même si le reseau n’est pas tout le temps au top (mais c’est le cas d’absolument tous les opérateurs), je préfère très largement payer moins cher, car après tout c’est bien ce point la que Free met en avant et sur lequel aucun des 3 autres n’arrive à s’aligner… Et là il n’y a pas d’embrouille sur la facture (ce qui n’est pas forcément le cas des autres).

Le 14/10/2013 à 16h 01

Sinon quelqu’un a compris comment en piratant un compte twitter un gars a pu avoir accés a 200 Mo d’images et du code source ??? Le gars se sert de twitter pour stocker toute l’infrastructure de sa boite ? <img data-src=" />

Le 13/10/2013 à 08h 26

Ouai enfin 72€/an ça fait cher quand tu veux limiter les frais.. Moi je paye mon hebergement OVH 15€/an.

Le 11/10/2013 à 12h 52

Dommage, j’aurai bien vu une offre à 14.28/an avec 20Go de stockage… <img data-src=" />

Le 13/10/2013 à 08h 23

Il faut évidemment lire “s’écoulait”, l’expression “s’écoulait en quantité” existe, mais je n’ai jamais entendu l’expression “s’écroulait en quantité”… <img data-src=" />

Le 10/10/2013 à 09h 36

Et toujours pas la consultation/création de maps personnalisés… <img data-src=" />

Le 16/09/2013 à 16h 13







frikakwa a écrit :



Sélectionnez à l’écran la zone à sauver et ensuite cliquez dans la zone “rechercher”. Faire défiler jusque tout en dessous et là… oh magie… “Rendre cette zone du plan disponible hors connexion”! That’s it! <img data-src=" />







Sauf qu’il n’y a pas de gestion des zones déjà sauvegardés (pas de liste pour les gérer/renommer/verifier que c’est bien enregistré), et moi je parlais des cartes personnalisés, pas des cartes offline: la possibilité d’afficher des cartes avec des points d’interets annotés par l’utilisateur. Je suis un gros consommateur de ce genre de cartes pour chaque voyage.


Le 16/09/2013 à 14h 16

Et toujours pas de cartes personnalisés comme avec l’ancienne version… Quelle regression :/

Le 12/09/2013 à 12h 40

Les fans arrivent bien à traduire toutes les séries en h+24 donc pourquoi pas de la vostfr, avec un service dédié à la traduction ça doit être jouable.

Le 12/09/2013 à 08h 06







Commentaire_supprime a écrit :



Apple te rembourse OSX sur simple demande si tu veux.







…ce qui prouve bien qu’ils forcent la vente de l’OS lors de l’achat d’un Mac.


Le 11/09/2013 à 12h 57







raoudoudou a écrit :



Le seul truc de nouveau là dedans, c’est l’interface plutôt ergonomique et pratique mais la technique est super ancienne et déjà utilisée par pas mal de logiciels, notamment pour la correction automatique de perspective (redresser un monument dont la photo a été prise du sol, par exemple).







Si tu parle du caméra mapping evidemment que ca existe depuis longtemps, mais la tu passe à coté de tout ce qui fait l’innovation et l’intérêt de cette nouvelle techno, faut quand même pas être bouché à ce point… Cite moi un seul logiciel de modelisation 3D capable de faire de la reconstruction aussi facilement à partir d’une seule photo ! Perso j’en connais qu’un seul, qui a été developpé par Realviz, puis racheté et avalé par Autodesk. Et il a maintenant disparu du marché.

Par rapport au soft de Realviz qui était une tuerie, celui la va encore 2 fois plus loin avec la detection auto des formes et des contours.


Le 11/09/2013 à 12h 54







metaphore54 a écrit :



Si ça fonctionne bien ça va être vite racheter reste à savoir par qui.







Bah la réponse est facile: Autodesk. Ils ont rachetés tous les logiciels 3D ces 10 dernières années… Y compris la compagnie Realviz qui avait un outil un peu de ce genre.


Le 08/09/2013 à 07h 59







BlackSharkfr a écrit :



Le titre en gras directement au dessus de l’image incite le lecteur à regarder l’image pour comparer et à juger par lui même.

Le texte en dessous de l’image confirme ce que le lecteur peut voir : l’image H265 est moins bonne que l’image H264 mais n’apporte pas la mise en garde cruciale (les débits n’ont pas été réglés, la comparaison des images n’a aucun sens !)







En l’occurence c’est l’inverse, quand tu compare l’image originale a la version h264 et h265, la version h265 est de loin la plus fidèle (cf le detail des comparaisons).


Le 07/09/2013 à 08h 52

Bien d’accord avec toi sur l’intérêt du 4K ;)

Aucun intérêt à moins d’avoir un écran IMAX chez soi ou d’être collé à l’écran…

Le 07/09/2013 à 08h 11







gavroche69 a écrit :



Ben non justement…

Ah j’imagine le mec qui perçoit des images floues et sans détail en regardant un film mais qui est tout content parce qu’en fait quand il ouvre une des images sous Photoshop il s’aperçoit qu’en renforçant le contraste ou d’autres trucs les détails sont bien là.

C’est à la limite du comique non ? <img data-src=" />







…euh, je crois que tu n’as pas bien compris le but du test <img data-src=" />

En recontrastant l’image pour refaire apparaitre les détails, le but de la manoeuvre était de montrer que le h265 n’avait PAS perdus les détails mais que les paramètres de contraste/sharpen étaient différents entre les 2 encodeurs, ce n’est donc pas une faiblesse du h265 mais simplement une histoire de réglages de bases mal faits (la faute à DivX en l’occurence).

Du coup si tu te base sur ton seul “ressenti”, non quantifiable, tu laisse la porte ouvertes à toutes les abberations type renforcement artificiels des détails comme le fait la version h264 quand on compare à l’original:http://img15.hostingpics.net/pics/908984tearsofsteel4kcropcomp.png

Revois toutes les parties que j’avais annotés précédemment, tu verra que la version h265 est beaucoup plus fidèle à l’originale que la h264 sur tous les plans: bavures, artefacts, niveau de détail.


Le 06/09/2013 à 19h 28

Voila la version annotée de la comparaison:http://uppix.net/3UU9Ty.png



Dans la zone rouge, on voit clairement les méchants artefacts que se prend le h264, absents de la version h264



Dans la zone verte, on voit que contrairement à ce qu’on pourrait penser de prime abord, le h265 n’a perdu aucun détail, puisqu’en recontrastant ils apparaissent tout autant que dans la version h264.



Dans la zone bleue, on voit que le h264 a mal géré les zones avec peu de textures: très délavés, et pertes de contours entre zones de luminosités très proche qui partent dans le flou. La version h265 est beaucoup plus précise.

Le 06/09/2013 à 19h 12

C’est pas du flou (perte de détails) mais un contraste moins important tout simplement. Si tu recontraste l’image tu verra autant de détails, et moins pourris d’artefacts que dans la version h264.

Jvais faire une image commentée, ca sera plus clair.

Le 06/09/2013 à 19h 04







fullsun a écrit :



si seulement il existe ce flou, règle ton écran avant.

Avant en 720p (et en SD) pour compenser le manque de qualité, la TV augmentait le flou (je t’assure, les forum spécialisés en parle).

Les navigateurs n’ont qu’un rendu suffisant, j’ai donc regardé ça sous un autre logiciel.



(c’est à la mode de se faire traiter de troll dès qu’ont émet une idée contraire à l’idée global, surtout par des gens de passage)







Je vais dans ton sens, effectivement en ouvrant le png dans un onglet à part et en zoomant on s’aperçoit qu’il n’y a pas de perte de détail, juste un contraste différent. Et la version HEVC se paye même le luxe d’être plus propre, cf par exemple le spot blanc en haut a droite qui est pourri d’artefacts dans la version h264, ou le dessous de tôle gris vert en bas a droite de l’image qui malgrés l’absence de détails dans les 2 cas, est bien plus propre/précis et moins délavé en HEVC qu’en h264.

C’est plutot très encourageant, le fichier HEVC est à la fois moins lourd et plus propre !


Le 06/09/2013 à 15h 22

C’est dénaturer le film la création de ces images intermédiaires, d’autant que tous les algos meme offline créent des aberrations.

Le 27/08/2013 à 10h 45

Bordel, mais qu’ils limitent le seuil pour les seuls artisans autoentrepreneurs et laissent les autres autoentrepreneurs tranquille !

Pellerin qui défend cette réforme, elle descend dans mon estime…

Le 22/08/2013 à 10h 33







maestro321 a écrit :



Je ne voudrait pas dire de bêtise mais il me semble qu’en AE tu ne peux pas avoir 80% de tes revenus chez le même client.







Je ne pense pas avoir vu aucun texte à ce sujet !


Le 20/08/2013 à 16h 58

Détruire les disques durs pour détruire l’information… HAHA c’est vraiment la meilleure de l’année celle la <img data-src=" />

Sinon il peuvent aussi frapper l’écran avec un marteau pour faire disparaitre les articles….

Le 09/08/2013 à 16h 36

Sinon ca serait bien qu’ils remettent toutes les features qu’ils ont virés dans Google Map… Genre les maps personalisés ! Impossible d’y accéder depuis la nouvelle version Android/Web… Au point que j’ai du faire un rollback sur les 2 plateformes :/

Le 11/07/2013 à 15h 15

Sauf qu’a l’étranger ca coute vite…

Le 11/07/2013 à 10h 41

Et on on voit ou les cartes offlines sauvegardés ? C’est quand meme une enorme regression la !

Le 11/07/2013 à 10h 37

Arg, les cartes personnalisées ont disparus !! :/ c’est quoi ce bordel…

Le 10/07/2013 à 13h 43

Parait ok maps ne sauvegarde que le niveau actuel de zoom, vrai ou pas ?

Le 05/07/2013 à 16h 23

brazomyna: à la base je demi-trollais (je reconnais que Java est certainement plus simples dans certains domaines) pour contrebalancer ta réponse à malock que je trouvais un peu condescendante; tu cite à multiple reprises le “monde pro”, mais en ce qui me concerne le “monde pro” en terme de développement c’est tout sauf de la gestion/finance ou autres SSIIeries. Sortie de ces quelques domaines (qui représentent hélas la majorité du marché du travail) les autres secteurs du développement ont besoin de beaucoup plus de contrôle et de performance que ne peux en offrir Java: traitement 2d, 3d, vidéo, son, crypto, développement de systèmes desktop, embarqués et mobiles, etc, etc, etc.

Le 05/07/2013 à 15h 11







brazomyna a écrit :



Java est utilisé dans le milieu pro dans 90% des cas pour J2EE, un truc qui est justement totalement en dehors du domaine de compétence de Qt.



Mais c’est un détail, tout comme le vivier de développeurs disponibles sur le marché de l’emploi pour l’une et l’autre techno, les capacités d’introspection de Java, la quantité de librairies tierces existantes orientées ‘besoins pro, info de gestion’, etc…



Mais t’as sûrement raison envers et contre une bonne partie de ceux qui ont opté pour telle techno plutôt qu’une autre: ceux-là sont tous des incompétents qui ne choisissent que pour de mauvaises raisons.

Heureusement que toi tu as la vraie, l’unique réponse universelle pour tous les projets, les besoins, de tout temps, et que ton altruisme t’a amené à venir nous la partager ici bas: “Java reste intrinsèquement de la merde” <img data-src=" />







Par rapport à J2EE il n’y a rien qui soit infaisable avec Qt puisqu’il repose sur C++, qui s’interface avec tout et pour lequel une chiadé de bibliotheque existe. Par contre l’inverse n’est pas vrai, si une fonction n’est pas dispo en java (quelle que soit sa déclinaison) tu ne pourras pas aussi facilement l’étendre (surtout si tu as besoin d’accéder à des périphériques/protocoles un peu exotiques).



Le vivier de développeurs disponibles n’a pas d’influence sur la qualité intrinsèque des languages/framework.

Les IDE modernes ont toutes les capacités d’introspection nécessaires pour la majorité des langages courants (dont le C++). Qt Creator est d’ailleurs spécialisé dans l’introspection C++/Qt.

Les librairies tierces sont bien plus importantes en C++ qu’en Java, tout domaine confondu, et surtout dans le milieu pro qui nécessite des performances et une ouverture que seul le C++ peut offrir.



Beaucoups d’entreprises ne font que reproduire par habitude les technos qu’elles voient dans leur milieu, sans se poser plus de questions. Le nombre de dev java supérieurs au nombre de devs C++ joue aussi. Mais encore une fois, dans tous les cas ça ne rend pas Java meilleur…

Java reste un language interprété (donc aux performances forcément limités) et limité aux bibliothèques qui ont été concus pour lui.


Le 05/07/2013 à 14h 08

Je vois pas le rapport entre l’experience de malock et brazomyna par rapport à la comparaison Java/Qt: dans l’absolu, à part dans de rares cas Java reste intrinsèquement de la merde, la ou Qt ne cesse de gagner en capacités, en perfs et en support. Toute l’expérience du monde ne change pas grand chose à ce constat, et on est heureusement pas obligé de se taper du Java pour pouvoir travailler au sein d’une boite, ou monter la sienne.

Le 05/07/2013 à 12h 52

Heureusement qu’on peut gagner sa vie en programmant pour autre chose que des SSII/banques/assurances (pour lesquels Qt a d’ailleurs peut d’intérêt).

Parce que si le seul intérêt de dev en Cobol c’est de gagner plus d’argent tout en se faisant chier…

Le 05/07/2013 à 11h 34

Gros utilisateur de Qt j’ai testé chaque build 5.x.x sur Windows/Mac et la 5.1 apporte enfin la maturité à Qt5 ! On arrive au niveau de stabilité de Qt 4.8.x, avec quelques ajouts bien sympa même sur desktop (gestion Retina, version x64, nouvelles classes, etc…). Qt Creator continue aussi son bout de chemin et n’a pas à rougir face à l’IDE de Microsoft -il est même bien plus agréable à utiliser, à mon sens-.

Le 02/07/2013 à 09h 55







Zekk a écrit :



Je faisais du TEMPEST quand j’étais à l’armée, et pas besoin de sondes directement dans l’ambassade, une sonde sur une canalisation, tuyaux de chaufferie, etc, à 200m de là, qui vont vers l’ambassade et tu entends pas mal de choses… <img data-src=" />







TEMPEST, c’était mon sujet de TPE au lycée ^^


Le 17/05/2013 à 05h 57

Les gens qui travaillent pour/grâce à Facebook travaillent dans le domaine des nouvelles technologies et sont donc parfaitement capable de rebondir si FB fermait, faut arrêter ce genre d’arguments à toutes les sauces… On parle pas d’ouvriers qui n’ont qu’une usine dans leur secteur pour survivre.

Le 20/03/2013 à 14h 52







HarmattanBlow a écrit :



Une partie de ce volume est proportionnel à la durée des animations. Ici les animations se répètent mais si ton jeu a vingt heures de jeu d’acteur motion-capturé, ça doit représenter un joli volume de données pour l’animation du visage.







Il me semble que tu es passé à coté de la spécifité de cette capture: de ce que j’ai compris, toutes les animations que tu vois dans cette démo, y compris les 2 phrases à la fin, sont générés à partir des 30 expressions de bases qui ont été capturés au préalable.

Les 400MB permettent donc de générer un nombre infinis d’animations, en enchainant à la volée ces expressions.


Le 20/03/2013 à 13h 17







DudeOlive a écrit :



J’y vois d’avantage la qualité de la (micro-motion) capture. Et pour le rendu ils balancent des données brutes (super gourmandes niveau mémoire) sur un morph-target.

Donc niveau hardware, ce que je vois c’est une bande passante de ouf.



Pour une application du type jeu vidéo, ont est encore loin (à moins de vouloir télécharger des jeux d’1TB, ET d’avoir RAM et disque qui puissent répondrent) .







Je n’ai pas compris la même chose: dans la démo ils disent que l’ensemble des donnés de base (géométrie, textures, animations, etc) est compressé en 400MB.

Ces 400MB sont ensuite chargé intégralement en VRAM, il n’y a donc plus de contrainte de bande passante, toute l’opération de synthèse et de rendu se passant uniquement du coté GPU.

Il suffirait donc de 400MB pour chaque visage, si tu compte 3 à 5 personnages principaux dans un jeu vidéo c’est pas énorme, on arriverait à 1 ou 2GB de données, rien d’insurmontable à notre époque ou les jeux vidéo pèsent déjà 12GB…


Le 20/03/2013 à 11h 51







sioowan a écrit :



http://www.gizmag.com/zoe-talking-head-avatar/26716/



Ils utilisent bien moins de données. Et ça marcherait même sur téléphone.







En même temps, absolument rien à voir en terme de fidélité et de possibilités avec la méthode présenté par Debevec et NVIDIA… <img data-src=" />


Le 20/03/2013 à 09h 07







Dacoco974 a écrit :



Je trouve qu’ils n’ont pas encore totalement remontés la pente de l’uncanny valley, ça reste quand même un peu bizarre à regarder sauf quand il parle où ça devient carrément impressionnant et naturel (là, ils ont dû faire de la face capture sans rien retoucher).







La démo en elle même c’est justement ce moment ou il parle hein, pas les séquences qui sont montrés avant (qui ne sont que des enregistrements bruts de l’acteur, pour le coup). Et c’est bien la le coeur de la démo: l’animation de la phrase est généré entièrement à partir des petits bouts d’expression montrés avant, l’acteur n’a pas été enregistré disant cette phrase.


Le 20/03/2013 à 08h 20

Mettre seulement un screenshot de la demo visage dans l’article, c’est passer à coté de 95% de la démo qui cible l’animation du visage et non le rendu… Ce rendu on l’avait deja 2 générations de GPU avant hein, pas la peine de s’extasier sur l’image.

Plus de détails (et la video surtout) ici:http://blogs.nvidia.com/2013/03/a-demo-thats-truly-a-head-of-its-time/

Le 14/03/2013 à 15h 56

Décidemment BenQ est en forme coté Full HD 3D…

Il y a quelques mois ils ont sortis le vidéoprojecteur W1070 qui est aussi une vraie tuerie !

Le 14/03/2013 à 11h 06







js2082 a écrit :



Question bête: c’est quoi comme logiciel?







SpectraLayers


Le 13/03/2013 à 12h 35







Sythuzuma-Ka a écrit :



Ah ben c’est intéressant. Donc le mauvais deal de leur part, ça a été de céder tous ces droits? Ou bien tu fonctionnes en autonome, donc sony n’as pas moyen d’abuser à ce point je suppose?







En ce qui me concerne j’ai autofinancé mon soft pendant 3 ans, donc le produit existait déja clé en main (ou presque) quand un accord a été trouvé avec Sony. Sony se sert bien sur chaque vente, mais je m’y retrouve sans problème par rapport au marketing deployé.

D’autre part il s’agit d’un soft pro et non d’un jeu, donc j’imagine que j’échappe aussi à certains couts irréductibles (contenu, kit de dev et part de Steam/PS Store).

Mais $1M d’avance sur recette, j’ai quand meme l’impression que thatgamecompany a bizarrement géré son budget pour un jeu “indie”… Beaucoup de projets de jeu Kickstarter se financent avec bien moins que ça, surtout quand tu sais d’avance que chaque dollars qui t’es avancé ne se retrouvera pas dans ta poche une fois le jeu en vente.


Le 13/03/2013 à 11h 51

Comme quoi l’autofinancement low-cost reste malgré tout la voie royale au final… J’ai toujours trouvé vachement risqué de faire reposer le développement d’un produit sur une avance sur recette (surtout quand elle est aussi conséquente), que ce soit en terme de revenu ou de propriété intellectuelle.

Alors oui on galère plus en autofinancement, et ça met peut-être plus de temps, mais au final on s’y retrouve quand même mieux une fois le produit finis.

(NB: je suis moi même dev indé distribué par Sony, mais mon contrat n’a visiblement rien en commun avec celui de thatgamecompany… Donc c’est vraiment du cas par cas j’imagine)

Le 02/02/2013 à 08h 21







jinge a écrit :



Ouais enfin là à part sur chrome ça ne roule pas du tout :(

IE ou opera pour uploader et télécharger un fichier de 30Mo, j’ai essayé 4 fois sur chaque sur différents ordis, impossible….. Au final j’ai été obligé d’installer chrominium pour télécharger le fichier… :(







Essaye en desactivant les transferts SSL dans les paramètres Mega, chez moi ça a résolu tous les problèmes de transfert !


Le 31/01/2013 à 16h 06

Sinon quelqu’un arrive à uploader de gros fichiers (&gt;500mo) sans que l’upload recommence à 0% une fois arrivé à 99% ? Ca me rend fou…

Pour info je suis en ADSL sur la Freebox Revolution.

Le 28/01/2013 à 18h 01

Ca reste toujours très lent et instable Hubic malheureusement…

Par exemple aujourd’hui j’ai essayé d’uploader un fichier de 3Go, arrivé à 95% et quelque il recommence à zero: les boules !

J’espère beaucoup de Mega du coup (pour l’instant pas réussi à uploader un fichier de 500mo ceci dit).

Le 21/01/2013 à 21h 47

Ah ouai donc c’est bien bidon le chiffrement 2048bit si seul le pass utilisateur est la seule vraie clé stocké hors du serveur.

Le 21/01/2013 à 18h 31

Comme quelqu’un l’a souligné plus haut, en quoi le fait de crypter les fichiers est plus sécurisé dans la mesure ou les serveurs de Mega stockent aussi la clé de decryptage ? A aucun moment je n’ai recu de clé à stocker sur mon ordi…

Le 21/01/2013 à 12h 50

La différence avec Box et DropBox (gratuis) aussi c’est que les fichiers ne sont pas limité à 200/300mo, et c’est une grosse différence pour pas mal d’applications mine de rien.



En ce qui me concerne je cherche à archiver plusieurs fichiers entre 500Mo et 2Go, gratuitement, et pouvoir y accéder n’importe ou.

Un FTP perso, outre le fait qu’il faille le configurer ne peut me fournir qu’un debit misérable, Hubic est techniquement déficient, seul Mega peut me proposer ca à l’heure actuelle.

Le 21/01/2013 à 12h 47







Ricard a écrit :



Si, le miens.<img data-src=" />







Dans ce cas je précise “un FTP de 50Go gratos avec un debit correct et indépendant de sa propre connection internet”.

Parce que, si partager/charger un fichier revient à saturer sa propre connection pendant 1h, non merci…