votre avatar

divide

est avec nous depuis le 11 juillet 2009 ❤️

446 commentaires

Le 29/02/2016 à 18h 44

Et sinon le mode histoire/quêtes, il est toujours pas implémenté ?

Le 18/02/2016 à 10h 02

Xamarin et Cordova ne sont pas vraiment comparables à Qt, ce sont des frameworks qui restent relativement basiques (beaucoup moins de fonctionnalités, écosystème limité et code moins optimisé). Ils sont restreints par conséquent à des domaines plus simples.

Le 18/02/2016 à 08h 32

Pareil, j’aimerai bien savoir ce qui te fait penser le contraire, alors que tout montre qu’il est de plus en plus adopté ? Tu confondrais pas avec un autre framework par hasard ?



C’est en tout cas une excellent nouvelle qui va bien simplifier l’utilisation de Vulkan. Leurs classes OpenGL sont particulièrement bien foutus.

Le 17/02/2016 à 09h 38

J’utilise BitBucket pour tous mes projets privés.

Le 17/02/2016 à 09h 33

J’utilise juste le profil par défaut (pas forcé en Core donc).

Le 16/02/2016 à 17h 51

Merci, c’est rassurant de voir que certains se sont déjà attaqué au wrapper (enfin là c’est un wrapper qui va être payant, j’espère qu’il y aura des alternatives gratuites pas la suite), du coup Vulkan pourra vraiment être universel même sans le bon vouloir d’Apple :)

Le 16/02/2016 à 16h 59

Merci ! 

Le 16/02/2016 à 16h 48

Bordel, Apple ne semble effectivement pas partie pour implémenter Vulkan. Les cons. 

&nbsphttp://www.anandtech.com/show/10035/vulkan-10-released



J’espère qu’un wrapper Vulkan-Mantle verra le jour pour pallier la connerie d’Apple. 

Le wrapper ANGLE ne marche pas si mal après tout. 

Le 16/02/2016 à 16h 33

Qt aura un support natif de Vulkan ! 

&nbsphttps://blog.qt.io/blog/2016/02/16/the-qt-company-joins-khronos-group-and-promot…



Excellente nouvelle, sachant que leur wrappers OpenGL était extrêmement bien foutu, ça devrait simplifier grandement le développement avec Vulkan :) 

Hate de tester les premières classes QVulkan… 

Le 16/02/2016 à 16h 24

La news évite soigneusement de citer  les OS d’Apple, mais j’imagine que la aussi le support est prévu non ? Sinon ça foutrait un mauvais coup au côté universel de la chose. 

Curieux de voir un hello world vulkan en c++, quelqu’un a aurait aurait un exemple simple sous la main (genre affichage d’un triangle, le hello world classique en opengl). 

Le 06/02/2016 à 23h 06

Justement, le film de Danny Boyle démonte complètement le mythe. On y voit un Jobs mégalo, psychopathe, manipulateur, sans éthique ou presque, et ça fait du bien ! 

Le 29/01/2016 à 19h 02

Comme le souligne Olivier, personne ici n’a dit que l’audition s’arrêtait pile à 20Khz, c’est juste qu’elle décroit de plus en plus passé cette limite (déjà, à 20Khz c’est pas la joie pour la grosse majorité des gens).

D’autant que dans un enregistrement normal (regarde un spectrogramme) les fréquences au dela de 12Khz sont à un niveau très faible par rapport au reste, et de plus en plus faible au fur et à mesure qu’on monte en fréquence (vraiment, regarde des spectrogrammes).

Donc quand on parle de 20Khz et plus, on parle d’audition faible+fréquences faibles=sensation négligeable voire nulle par rapport à toutes les autres fréquences <20Khz.

Va essayer d’entendre ta sin de 20Khz si elle est jouée/perçue 40dB plus faible qu’une sin de 4Khz qui joue en même temps…

Le 25/01/2016 à 23h 31







Noscarius a écrit :



La fidélité d’une reproduction musicale est trop subjective et émotionnelle pour être

quantifiée. Ce serait une science exacte on aurait pas toutes les

dérives extremes et fantaisistes dues à la marge d’interprétation et

l’imagination débridée ou marketée des fabricants et revues spécialisées



dont parle Borée. 







Mais enfin… c’est un contre-sens total ce que tu dis là&nbsp;<img data-src=" />

Si il y a bien un critère qui peut se mesurer objectivement, scientifiquement et en dehors de toute émotion c’est bien la fidélité d’un signal, entre les valeurs d’entrée et les valeurs de sortie !

On est même pas dans le domaine d’une science flou ou molle là, tout est clair mathématiquement parlant, et aucune thérie dans ce domaine n’a été remise en question depuis des décennies (on pourrait même parler de siècle, Fourier c’est 1800, Nyquist-Shannon 1910 et ils n’ont jamais été remis en question - en même temps quand c’est prouvé mathématiquement, difficile de contredire quoi que ce soit).


Le 25/01/2016 à 22h 28







Noscarius a écrit :



Difficile de dire que le test du linn est bullshit sans l’avoir écouté. Y’a quelques années un revendeur toulousain faisait une démo avec un ensemble complet de la même marque et gamme, j’ai failli m’embrouiller avec mon banquier tellement l’écoute m’avait retourné <img data-src=" />






Bien sur que si tu peux savoir le résultat sans avoir essayé. C'est l'intérêt de la science, des test aveugle, des théorèmes, et tout ça. De la même manière, tu sais d'avance que 2+2=4 avant même de réunir autant de cailloux pour vérifier :)     



Dans le cas que tu décris, la science dit que le CD à 44.1Khz/16bit dépasse largement en fidélité n’importe quel support analogique, et à fortiori le vinyl dont la restitution est médiocre et en fréquence, et en dynamique. Sans parler du rapport signal/bruit.


Le 25/01/2016 à 19h 35







Noscarius a écrit :



Le vinyle donne un son chaud et charnu, le numérique a tendance à etre froid et métallique. Impossible de reproduire ce son analogique si typique même avec&nbsp; un dac à 15000€ et un master audio en 32Bits/386kHz. Le meilleur compliment qu’on puisse dire d’une stéréo avec une source numérique est d’avoir un coté analogique.&nbsp;





Un peu trop gros comme troll <img data-src=" />


Le 25/01/2016 à 13h 28







humanproject a écrit :



Ce n’est pas pour rien que mon vinyle Sticky Fingers des Rolling Stones, j’ai un signal à 90khz, comme dit plus avant.&nbsp;





Regarde le spectrogramme de ton transfert numérique du vinyle de Sticky Fingers. Tu risque d’être désagréablement surpris sur les infos que tu crois avoir dans les hautes fréquences :)

(au pire upload le wav quelque part, je peux t’en sortir le spectre)


Le 25/01/2016 à 10h 47







humanproject a écrit :



Non, mes rips ont quelque chose comme +4 à +6 db à 90khz ; Et resampler, même dans un logiciel “bon”, ça va couper les fréquences au delà des 48khz et ne pas les remettre au passage en 192….

Et oui, l’homme ne peut entendre au delà des 20-23 khz, mais au dessus, tu as un ressenti différent qui s’ajoute. Sans l’entendre à proprement parler, tu as un petit quelque chose de plus qui s’ajoute.

Beaucoup d’ingénieurs son indiquent que la sensation du 44.1 khz par rapport au 192khz en écoute est d’avoir la tête sous l’eau vs la tête hors de l’eau.

Quand je parle de “plus de place” pour chaque élément, je fais référence à une sensation. Bien sûr que le support ne va pas remixer et ajouter des choses tout seul….





C’est de la désinformation pure que tu fais là…

Aucune étude scientifique n’a pu montrer l’existence de perception humaine dans les ultrasons. Le “ressenti” est d’ordre purement psychologique/placebo, parce que tu sais que ton matos joue un enregistrement à 192Khz. Il n’est par ailleurs par rare de voir des ingés sons propager ce genre de désinformation.

Seul les tests en double aveugle avec un protocole de test sérieux sont en mesure d’affirmer ce genre de chose, et jusqu’à preuve du contraire aucun test de ce genre n’a pu mettre ça en évidence. Même une sensation est quantifiable : elle est là ou elle n’est pas là, lors d’écoutes en double aveugle.


Le 25/01/2016 à 09h 32







humanproject a écrit :



Non ; Un vinyle est fait à partir du fichier master d’origine en wav. Un vinyle ne peut être fait à partir d’une source 16 bits (du moins, c’est très déconseillé - on peut, mais ça risque d’être un peu moche) ;




  &nbsp;Le lien en lui même est certes intéressant, mais pas pour autant juste ; En ne s'appuyant que sur l'ère numérique, l'écrivain oublie complètement le signal 100% analogique. De plus, une chose m'a fait hisser les cheveux sur la tête : Oui, une trompette va au-delà des 44.1khz ; On ne parle pas de la note maximale mais de sa fréquence maximale, qui peut aller bien au delà.... Rien que la note la plus grave d'une trompette peu dépasser les 80 khz....        

&nbsp; Bien des ingénieurs son hallucineraient en voyant cet article. C'est bien de donner des mesures techniques, des graphiques ect, mais c'est mieux de savoir les utiliser correctement. Le CD n'a jamais été supérieur au vinyle, pour la simple et bonne raison qu'il est limité au 16 bits. C'est bien de se baser sur la fréquence uniquement pour dire que telle ou telle source est meilleure, mais il ne faut pas oublier les autres critères....








  Non, non et non ! Ça suffit la désinformation...       

Suffit d'aller sur n'importe quel article wiki qui évoque le sujet pour voir qu'un vinyle a dans le meilleur des cas une dynamique de 70dB:



&nbsp;&nbsp;en.wikipedia.org Wikipedia



  Le chiffre de 60dB est même plus souvent évoqué.      

&nbsp;

Or un CD (16bits) donne une dynamique de 96dB ! (1 bit code un doublement de puissance, un doublement de puissance équivaut à 6dB : 16bit*6dB=96dB).

En comparaison, 70dB équivaut au mieux à 12bits...

Le 25/01/2016 à 09h 26







humanproject a écrit :



Je suis pas vraiment d’accord avec toi. Les vinyles vont bien au delà des 192khz en lecture ; Les enceintes ne sont certes pas forcément capable de restituer le son, et de toute façon l’oreille humaine n’atteint en général pas plus de 23 khz dans les cas les plus incroyables. MAIS, une plus grande plage de fréquence = plus de place pour chaque élément. On a vraiment l’impression que le mix respire davantage, et on a une meilleure restitution qu’avec du 96 ou 44.1khz.



Faisant quelques rips de mes vinyles, j’ai souvent eu l’occasion de faire des tests, et je préfère très clairement entendre mon rip en 192 qu’en 96, et de loin.



Concernant la news en elle même, je suis plutôt content de cette nouvelle jeunesse ; Pas pour les platines en elle même, je suis très content avec ma Clearaudio concept (A des années lumières devant celles présentées) ; Non, l’intérêt ici, c’est surtout le regain de popularité des vinyles. D’une part, l’objet est vraiment fabuleux et bien mieux qu’un CD ou format digital neutre, mais surtout cela va permettre aux artistes de pouvoir booster leurs ventes via ce format ; C’est réellement le moment pour eux de sauter le pas pour parer à tous les Spotify et Deezer qui ne veulent rien lâcher.

Qui sait, l’industrie de la musique va pouvoir peut être même se relancer comme dans les 90s :)





Tu te rends compte que tu te contredis complètement au sein d’un même message ?



Par ailleurs, je serais curieux de voir la gueule du spectrogram de tes rips vinyls en 192khz. Je suis prêt à parier qu’au dessus de 16Khz les harmoniques sont à la limite du seuil d’audibilité, et encore plus haut que tu n’as que du bruit (donc aucune information réelle).



Dire qu’il y a plus de place pour chaque élément est faux : la densité spectrale dans la gamme 20Hz-20Khz reste exactement la même, les fréquences ne vont pas magiquement se décaler avec un échantillonage plus élevée :)

Elle vont juste s’étaler plus loin dans des gammes de fréquences qui ne sont de toute façon pas audible pour l’homme (donc aucune différence de ressentis).

Tu devrais prendre tes transferts 192Khz et les resampler (avec un bon resampler !) en 48Khz, puis les upsampler à nouveau en 192Khz (pour ne pas biaiser le test lors du passage dans le DAC) : je suis prêt à parier que ton transfert 192Khz et ton transfert 192Khz-48Khz-192Khz vont sonner exactement pareil !


Le 24/01/2016 à 23h 37

La fréquence de Nyquist est certes un cas particulier, ou seule une phase de 90270 degrées est correctement restitué, mais tout ce qui est en dessous de Nyquist peut se reconstruire avec les infos de phase complètes.

Une FFT ne donne pas les infos de phase pour le DC (fréquence 0) ni pour Nyquist, mais pour tout le reste aucun problème.



Quand à faire “beaucoup mieux” avec du 24bits/192bits, ça dépend dans quel contexte tu te place.

Dans le contexte d’analyses scientifiques du signal, ou de chaine de postproduction destructrice oui ça limite la casse, mais dans le cadre d’une écoute humaine la différence est techniquement imperceptible.



En admettant qu’il y ai des humains qui perçoivent au delà de 20K (pas encore vu d’étude qui mette ça clairement en évidence), si c’est avec une atténuation de 20dB ou pire par rapport aux autres fréquences ça n’a pas grand intérêt :)

Déjà en observant un spectrogramme lambda (film, musique, …) on s’aperçoit que toutes les fréquences au dessus de 10-15K sont très faible puissance, et de plus en plus faibles au fur et à mesure qu’on monte en fréquence. Donc percevoir avec -20dB un signal qui est déjà à -30dB par rapport au reste du signal, il reste vraiment plus grand chose à percevoir :)



Un exemple concret, j’ai ouvert Stay de la BO d’Interstellar (qui est assez chargé en fréquences sur la fin), j’ai selectionné (en blanc) les fréquences au dessus de 12K… Bah… Il reste pas grand chose, -30dB par rapport au reste:&nbsp;http://i.imgur.com/RXPFAaS.png

Donc autant dire qu’au dessus de 20K ce serait encore plus infinitésimal, surtout si la perception humaine est elle aussi négligeable dans cette gamme.

&nbsp;

Le 24/01/2016 à 08h 55

Ne le prend pas personnellement, mais tu n’as pas compris vraiment les fondements mathématiques de l’échantillonnage numérique :)

Pour travailler tous les jours sur du traitement spectral numérique, je peux t’affirmer qu’un échantillonnage à 44k est PARFAITEMENT capable de restituer une sinusoide de 22K… Et même de la mélanger tout aussi parfaitement avec un sin de 21K, 20K, etc.

Bref avec 44K tu restitue parfaitement toutes les fréquences (fréquence =sin) en dessous de 22K.



Hors l’oreille humaine n’entend aucune fréquence au dessus de 20K (c’est un chiffre absolu, aucun test scientifique n’a pu mettre en évidence des perceptions auditives au dela, en dehors de trèd jeunes enfants, ou alors avec une atténuation tellement forte que la perception est negligeable) donc il ne sert strictement à rien de restituer des freqs supérieures à 20K. Ceux qui pretendent entendre du 24K devraient préciser avec quelle atténuation par rapport à du 1K…



Un signal triangulaire ou carré est constitué de nombreuses frequences (sin) , mais si elles vont au dessus de 20K elles ne sont pas perçues quel que soit le cas de figure. La sinusoide est l’unité de base en fréquence.

Le 10/01/2016 à 14h 48

Ah oui, donc tu es bel un bien un gros con. Tu sais qu’on peut avoir une installation ciné chez soi SANS être un gros connard ?

Le 09/01/2016 à 18h 59

Si tu passe sur ZT, qui repose sur du direct download, alors tu t’es certainement payé des abonnements sur certains sites d’hebergement de fichiers (puisque tu charge des rips BR, donc plusieurs dizaines de gigas).

Tu as donc payé des sites qui hébergent des fichiers illégaux, des sites qui n’ont rien fait pour créer les œuvres que tu consomme, et tu n’as strictement rien reversé aux créateurs des oeuvres en question. Le pire c’est que tu as l’air d’en être fier. Pas un seul instant tu remet en question ton mode de consommation ? C’est vraiment aberrant comme comportement, et j’essaye avec beaucoup de difficulté de rester polis.

Tu pourrais au moins avoir la décence de ne pas t’en vanter.



Ah et au fait, ça te fait rien d’avoir donné 4500€ à Sony ? Ils se gavent pas eux, contrairement aux grand méchants producteurs de films ? T’as vraiment une logique à deux vitesses…

Le 09/01/2016 à 07h 52

J’ai 200 BR, je les ai acheté en grande majorité entre 10 et 15 euros chez Gibert. De toute façon si tu claque 4500 dans une TV c’est indécent de réclamer des films à 2 euros… Non mais je rêve !

Le 08/01/2016 à 05h 58

Sur mon videoproj j’ai plus de 6000h de durée de vie pour l’ampoule (smarteco). A raison de 3h par jour, ça me fait 6 ans… A 800 euro le videoproj, je pense que j’aurais de toute façon évolué vers un meilleur modèle entre temps :)

Et pour les rips 4k, faut pas croire que les 100Gb nécessaires se telechargent en un claquement de doigt, même avec la fibre. J’ai du FTTH à 1Gbps chez moi mais les sources vont rarement au delà de 100mbps déjà.

Le 07/01/2016 à 23h 15

C’est une décision complètement con.



 Non seulement à cause du prix démentiel que tu as mis dedans alors que le prix va baisser très vite, mais en plus t'as beau avoir pris un 65", tu ne verra pas la différence avec un écran HD si tu ne te situe pas à moins de 2m de ton écran :       



http://i.i.cbsi.com/cnwk.1d/i/tim/2013/01/27/resolution_chart.jpg




 Pour 5 fois moins cher tu aurais pu te prendre un videoproj full HD 3D de qualité qui t'aurais donné une image encore plus grande, et t'aurai pu investir le reste dans des BR à 15€ l'unité, avec les 3000€ restant ça te faisait 200BR. Les rips c'est bien gentil, mais soit tu vois la compression, soit tu sature vite ton disque dur.

Le 05/01/2016 à 14h 19







lascounet a écrit :



Demain je préco ! ça fait tellement longtemps que j’attends … j’hésitais deja pour le MK2 !






Boh, un ticket dans un MK2 aux séances du matin c'est juste 6.50€.

Le 05/01/2016 à 11h 34







Soltek a écrit :



Sinon avec le lien du calculateur qu’on m’a donné plus haut il m’indique bien qu’on voit la différence sur un écran de ciné entre 4K et 8K si on est pas assis au premier rang :p&nbsp;





Comment ça ? Le calculateur spécifie que la recommandation THX est de 40 degres. Hors avec cet angle la résolution 4K est bien plus que suffisante (et 2K fait deja bien le job).



Par exemple en rentrant les dimensions que j’ai chez moi (230cm, 3m) ça me donne un angle de 41.9 degres. Je suis donc quasi pile poil dans les recommandations THX.

En selectionnant une résolution Full HD, ça me sort:

Angle séparant deux pixels :0.0190 °(pouvoir séparateur de l’oeil humain : 0.0170 °)



Du coup en passant en 4K je ne gagnerai quasiment rien (à peine 0.019/0.017=11% en qualité), alors que je suis déjà pas mal immergé dans l’image…


Le 05/01/2016 à 08h 21

C’est pourtant hyper clair dès le premier lien que je t’ai mis:

“Angular resolution: about 1 arcminute, approximately 0.02° or 0.0003 radians,[1] which corresponds to 0.3 m at a 1 km distance.”



Après il suffit de faire les math, coup de bol un inpactien l’a déjà fait pour toi en détaillant toutes les étapes:

forum.nextinpact.com Next INpact



Et comme je suis sympa, je te met même un lien vers une charte qui se base sur la même information de base (la résolution angulaire de l’oeil) et qui te calcule la réso nécessaire en fonction de la taille de l’écran et de ta distance:

http://i.i.cbsi.com/cnwk.1d/i/tim/2013/01/27/resolution_chart.jpg

&nbsp;

Par exemple, avec un écran de 100” (250cm de diagonale) il faut être à 6 pieds (183cm) de distance pour avoir le plein bénéfice du 4K (distance à laquelle du 5k/6k/7k/8k ne change rien).

Je crois que t’as les yeux bien explosés à cette distance, c’est équivalent à un rapport de projection IMAX en terme de couverture de champs visuel.

&nbsp;

&nbsp;On peut pas faire plus clair.

&nbsp;

Le 05/01/2016 à 07h 54

Commence déjà par Wikipedia :

en.wikipedia.org WikipediaEt complète si besoin en googlant human eye angular resolution

ou

résolution angulaire oeil humain

Le 05/01/2016 à 07h 24

Rien à voir. La science n’a jamais dit que l’oeil ne pouvait percevoir plus de 24fps. C’est ne pas comprendre l’importance du flou de mouvement que d’affirmer ça.

Une vidéo à 24fps paraît parfaitement fluide si elle comporte 100% de flou de mouvement d’une image à l’autre. Par contre dans ces conditions elle peut paraître flou si il y a beaucoup de mouvement. C’est pour ça qu’augmenter les fps permet de réduire le flou nécessaire pour que l’illusion de mouvement continue marche.

Par contre de nombreux tests scientifiques ont montrés et chiffrés les limites de résolution de l’oeil.

C’est pour ça qu’il est aisé d’affirmer que du 8K ne servira à rien en terme de résolution pure pour l’homme dans des conditions de projection normales, et que le 4k est deja superflu dans beaucoup de cas.

De la même manière, et pour exactement les mêmes raisons, il est aisé d’affirmer que l’audio “hd” (96/192khz et 24bit) c’est de la pure arnaque.

Le 04/01/2016 à 17h 29

Faut être dans un ratio de projection plus grand qu’une salle IMAX pour percevoir la moindre différence au dela de 4K… Et dans une salle de ciné standard le 2K est déjà suffisant. Suffit de se référer aux chartes sur la perception de l’oeil en fonction de la distance/taille écran.

Le 04/01/2016 à 12h 43

Peu importe qu’un écran géant soit 4K ou 8K, au final le rapport taille écran/distance public reste à peu près le même. Un 2K fait même parfaitement l’affaire la plupart du temps.

Le 04/01/2016 à 08h 49

Comment une résolution supérieure (8K vs 4K) pourrait apporter une meilleure dynamique/rendu de couleur ? La résolution horizontale/verticale n’a rien à voir avec la résolution colorimétrique/lumineuse. C’est le HDR qui s’en occupe, de ça.

Quand au micro-contraste, un noir et un blanc très proche ne donnerons toujours qu’un gris à l’oeil si ils sont trop proches.

Le 04/01/2016 à 08h 38

Ouai enfin au bout d’un moment c’est des simples math et de la physique… La perception de l’oeil a des limites bien connues et mesurées, à ce jeu tu peux aussi prétendre que 16K et 32K seront peut-être mieux que ce que tu perçois en 4K et en 8K… Mais&nbsp;au final 2 pixels trop petits n’en forment qu’un pour notre oeil.

Le 04/01/2016 à 08h 28







jeje07bis a écrit :



Et des tests au Japon ont démontré que les gens sont plus sensibles au passage de 4K en 8K qu’au passage de la HD au 4K (ne me demande pas pourquoi, j’imagine que l’image doit gagner en réalisme question couleurs / dynamique)





Hm… Ça me laisse perplexe ça. Tu aurais un lien vers l’étude en question ?


Le 14/12/2015 à 11h 41

Il y a un lien vers le rapport ? Pas trouvé dans l’article.

Curieux de voir comment les bénéfices se répartissent entre les différentes formules et logiciels d’Adobe.

Le 01/12/2015 à 23h 39

C’est limitant de résumer Qt à l’UI, ça va bien au dela de ça. En fait ça adresse tout ce qui est standard dans un programme: gestion UI, souris/clavier/touchscreen/pad…, réseau, OpenGL, fichiers, threading, système, manipulation de strings, de blocs de données, structuration de données, etc etc etc.

Dès que tu as pigé l’idée, ça te débarasse de tout ce qui est chiant/repetitif, et ce même si tu ne code que pour une seule plateforme.

Pour rajouter un exemple, mon soft SpectraLayers est 100% Qt.

Le 01/12/2015 à 17h 04







Slippropre a écrit :



Parce que mine de rien développer une seule appli pour toutes les plates formes Windows 10 sans devoir jongler entre les API de chacune c’est &lt;3





Le jour ou tu va découvrir Qt… :)

Avec un seul code tu peux développer pour Windows+Windows RT+Linux+OS X+iOS+Android. Et leur IDE multiplateforme est un régal.


Le 01/12/2015 à 11h 33

Woohoo !

Maintenant j’aimerai bien une mise à jour qui active le wifi 802.11ac sur la Mini 4k…

Le 19/11/2015 à 13h 09

Pour ceux qui utilisent le framework Qt, &nbsp;je trouve l’IDE Qt Creator bien plus souple et agréable que Visual Studio. Au point que même sur des projets formatés pour Visual Studio, je fais en sorte de les convertir en projets Qt Creator avant de bosser dessus.

Le 25/09/2015 à 12h 28

Merde, l’edit est pas passé. Bref: moins de 1080px de large pour le film a cause des marges VR, on arrive vers 480p au final.

Le 25/09/2015 à 12h 26

Exact, j’ai rectifié.

Le 25/09/2015 à 12h 20

Source: specs et maths :)

On sait que le casque d’Oculus (et celui de Valve aussi) se basent sur une dalle de 2160x1200, ce qui donne 1080x600 par oeil. MAIS il s’agit d’un format vertical, or les films sont en 169 (horizontal). Donc ça donne au mieux des films de 600px de large, donc de 337px de haut. Du coup j’étais un peu large avec mon 480p, c’est plus du 360p. Et encore je suis gentil, les systèmes de ciné VR rajoutent en plus une marge a gauche et à droite de l’écran pour donner l’illusion d’une salle VR.

Le 25/09/2015 à 11h 56

Sinon regarder un film dans un casque VR actuellement c’est une aberration, les casques sont à peine capable de sortir l’équivalent d’un 480p en terme de surface d’affichage utile pour un film…

Le 25/09/2015 à 11h 53

Euh, de quels casques tu parles ? Il n’y en a que 3 gros pour l’instant, celui d’Oculus, de Valve/HTC et celui de Sony, et les 3 ont des specs et un prix similaire.

Le 15/09/2015 à 07h 38

Génial cette nouvelle, c’était le dernier pays que j’attendais !

Le 15/09/2015 à 07h 38







dk_snake a écrit :



si d’ici Noel, ils peuvent ajouter le Canada, ça serait le top





C’est déjà le cas depuis le 24/03/2015 …!


Le 31/08/2015 à 08h 47

Pas sur qu’ils fassent beaucoup de marge sur la vente des mobiles vu les prix auxquels ils les vendent, à mon avis ça doit pas influer beaucoup dans la rentabilité par abonné.

Le 27/08/2015 à 15h 24

Et actuellement dans la vie de tous les jour, utilise tu ou cotoie tu des reseaux wifi ou mobile ?

&nbsp;Si oui, comment as tu pu sortir de ta situation ?

&nbsp;Si non, es tu sur et certain que ton environnement actuel est complètement dépourvu d’ondes electromagnétiques ?