Référence élégante mais autre temps, autres meurs ce que j’avance est dans les cartons puisqu’AMD l’a annoncé pour la fin de cette année ce qui mettrait les utilisateurs PC au niveau des plateformes fournies à Sony et Microsoft pour leurs consoles.
Ça va complexifier l’offre et pas forcément faire moins de bruit (à puissance égale, évidemment, un truc qui chauffe, faut le refroidir). Les consoles à venir sont un très bon choix technique, mais est-ce adapté à une machine aussi polyvalente que le PC, je ne pense pas.
Le
30/05/2013 à
06h
27
loulnux a écrit :
J’attends avec impatience le marriage APU/GDDR , j’en ai marre de surpayer des options que je sous-exploite et de m’emmerder avec des ventilateurs dans tous les sens qui bouffent de l’énergie supplémentaires, augmentent les causes de panne et finissent toujours par augmenter la présence sonore de mes configurations.
Comme à l’époque de l’amiga avec la chip et la fast? Ça promet " />
lol Aucun domine…. À se demander pourquoi il y a tant de gens sur les réseaux sociaux si la plupart sait que ça ne sert à rien…. " />
C’est très pratique pour retrouver du monde, échanger de l’info. Mais il est évident qu’y mettre des photos trop privées, laisser les gens taguer ta tête, c’est pas une bonne idée. Il faut apprendre à utiliser ces outils, et pas être utilisé par eux.
Le slow motion si ce n’est pas filmé en haute vitesse c’est merdique faut avouer " />" />
Ça fonctionne très bien sur les vidéos qui sont déjà lentes à la base. Sinon, il y a trop d’interpolations et trop de flou. La technique fonctionne parfaitement, mais n’est pas miraculeuse.
Oui justement quand je parle d’émulation cathodique c’est pas les filtre à l’instagram.
Mais bien de faire un rendue qui prend en conte la spécificité de ces écrans et leur utilisation (pixel rectangulaire, diffusion de la couleur entre pixel, rémanence de l’écran)
Ce dont tu parles est aussi du cosmétique " />
Mais oui, certains émulateurs simulent les retards de signaux, pour faire par exemple des effets de vague hard avec l’écran, ou même carrément des décrochages de VBL.
Le
27/05/2013 à
10h
16
ben51 a écrit :
Et l’émulation de l’écran cathodique ?
Y a plusieurs émulateurs qui proposent de belles imitations via des shaders
Et techniquement, certains émulateurs sont obligés d’émuler l’écran, pour obtenir des dé-synchros, mettre plusieurs HBL par ligne (technique dite de rupture)
Le
26/05/2013 à
18h
15
sr17 a écrit :
Non, faire du reverse, ça sers surtout à comprendre comment un circuit fonctionne et comment il se comporte dans les situations non documentées.
Au temps pour moi, j’avais compris autre chose " />
Le
26/05/2013 à
16h
39
sr17 a écrit :
Les ordinateurs étaient documentés pour que les programmeurs puissent écrire des programmes. Aucun ne l’a jamais été au niveau nécessaire pour écrire des émulateurs. Cela suppose que toute personne devant écrire un émulateur devra faire pas mal de reverse engineering.
Les documentations ont toujours été sommaires parce que les programmeurs n’étaient pas censés sortir des clous. Mais en fait, pour reprendre le cas du CPC que je connais bien, les docs existaient ailleurs, chez les fabricants tiers (puce audio, floppy, …) et se baser sur ces docs plutôt que du reverse, c’est ce qui fait qu’ACE est plus fidèle que les autres émulateurs, avec moins de resources. Dont actes ;)
Bref, faire du reverse, c’est bon à faire un émulateur usine à gaz, jusqu’au prochain bout de code tricky qui fera planter l’émulateur parce qu’on sortira une nouvelle fois des clous, au lieu d’émuler la puce correctement.
Le
26/05/2013 à
12h
01
zepcinpact a écrit :
Raoudou a faux sur le cpu. Porter un emulateur ne signifie pas comprendre tout.
il faut savoir que certains jeux par exemple utilisaient le temos de monte des capacites pour scheduler les actions. Un cpu puissant pose de gros pb dans ce genre de cas car on ne peut que tres difficilement emuler ca (un timer ne suffit pas) de meme des jeux comme titan utilisant un bug rare du cpu posent probleme, le bug etant emuke sans le timing reel.
idem pour les scrolling moderne qui sont cadences differement.
bref une emulation de base est simple a faire mais une vraie emulation demande vraiment beaucoup de puissance pour gerer jusqu a l interne.
c est pour ca qu aucjn emukateur, winape compris, ne fourni l exact resultat pour certains jeux.
la puissance brut des proc actuels se fait a partir d architecture tres differente. Cela ne veut donc rien dire sur leur capacite a reelle a reproduire un comportement aleatoire ou dependant d autre parties disparues.
Winape est mal foutu pour les raisons que j’ai expliquées plus haut (premières versions en émulation partielle et ajouts de corrections sur mauvaises bases, beaucoup de boulot pendant des années pour un résultat imparfait) et demande du CPU
ACE est bien foutu dès le départ (aussi, il faut le reconnaitre, parce que l’auteur a su analyser les erreurs des autres pour ne pas les refaire), fonctionne parfaitement et demande peu de CPU
En plus, il peut utiliser des modes vidéos 50Hz natifs pour être parfaitement synchro avec les scrollings les plus dégueulasses
Bref, les faits te donnent tort, désolé hein
Ne désespère pas, bientôt tu pourras utiliser ACE sur autre chose qu’un Amiga " />
Le
25/05/2013 à
22h
36
sr17 a écrit :
Pour le problème du CPC, les quelques tricks utilisés demandent évidement du reverse engineering et plus de resources pour une émulation plus détaillée.
Je voulais rebondir aussi sur cette idée reçue qu’il faille plus de resources pour une émulation plus détaillée.
Beaucoup d’émulateurs ont été écrit par des informaticiens qui n’ont pas de notions en électronique. Résultat, le comportement de la machine est mimé, imparfait, et surtout fondé sur des bases mauvaises. Du coup, pour améliorer l’émulation, on patch, on ajoute des rustines (super bien optimisées hein, en assembleur et tout) mais ça reste lourd et lent.
Alors que d’autres émulateurs sont écrits en C pur, mais par des gens qui connaissent le fonctionnement interne et électronique des puces. Et au final, on se retrouve avec des programmes moins optimisés certes, mais aux algorithmes bien plus simples et justes. L’émulation est pourtant meilleure et utilise moins de resources. Mais cela demande une connaissance approfondie de la machine. On a de beaux exemples dans les émulateurs C64.
Le
25/05/2013 à
22h
09
sr17 a écrit :
Le fait que cela soit documenté n’empêche en rien que cela demande un énorme travail parce qu’il y a énormément de petits détails à gérer.
Je n’ai jamais dit le contraire. Je dis que c’est simple à faire, pas que ça ne demande pas de travail, saisis-tu la différence?
Non, ce n’est pas simple. Un bon émulateur, c’est beaucoup de travail, ça ne s’écrit pas en quelques jours. Pour certains émulateurs, les gars y bossent depuis des années. Rien qu’a lire les changelogs de certains émulateurs, on est impressionné par la quantité de travail qu’ils font à chaque version.
Si, si, c’est simple, on est là encore, sur un manque de documentation. Et souvent, ces modifications sont proposées par d’anciens programmeurs qui connaissent tous les petits trucs (Les évolutions de Winape, par exemple, sont le fait de demomaker, même si c’est Wilson qui se paluche le code au final)
Alors primo, je parlais de quelque chose de complètement différent : les ressources nécessaires pour l’émulation d’une machine ancienne et du fait que ce n’est pas parce que le proco mouline à seulement 8 mhz que c’est forcément hyper-léger à émuler pour un smartphone.
Tu n’as toujours pas l’once d’un début d’explication à ton argumentation. Et pour cause, les faits sont contre toi. Les émulateurs tournent du feu de dieu…
Pour le problème du CPC, les quelques tricks utilisés demandent évidement du reverse engineering et plus de resources pour une émulation plus détaillée.
Mais rien de vraiment plus complexe que sur d’autres bécannes. Il suffit de voir la complexité du hardware d’un 800XL et des tricks utilisés par les programmeurs… et pourtant cette machine est parfaitement émulée.
Le problème du CPC+, c’est surtout que son Asic est buggué jusqu’à l’os…
De plus, le CPC partait de circuits parfaitement standards et relativement bien documentés. Et les tricks utilisés étaient connus des programmeurs.
Non, il y a plus de 4 chipsets graphiques sur le CPC qui ont chacun des comportements différents ET utilisés par les développeurs de jeux vidéos, en particulier sur la fin de vie de la machine.
Je pense que le vrai problème du CPC, c’est que ce n’est jamais devenu une machine culte comme l’Amiga. Et donc personne n’est prêt à y investir autant de temps que pour d’autres machines.
Encore une fois, tu racontes n’importe quoi. Le problème du CPC, c’est sa complexité cachée et le manque de documentation. D’ailleurs, y a un super émulateur bien propre (ACE) qui tourne sur Amiga et qui a été programmé par une des plus grosses tronches sur CPC (Offset). Son développement a été très court.
Pourquoi? Parce qu’il connait la machine sur le bout des doigts.
Une preuve de plus que:
c’est simple
il faut être documenté
Conclusion: t’as la doc, ça va vite, t’as pas de doc, c’est bugué et ça prend du temps.
L’émulation n’est pas une baguette magique qui peut faire disparaitre par magie le coût de traitements parallèles. Si tu regarde un jour le code d’un émulateur, tu comprendra qu’il y a juste des bonnes optimisations qui permettent de ne pas tout simuler ou de ne simuler que ce qui est utilisé. Mais ce n’est pas toujours possible quand un circuit génére un état qui évolue de manière complexe au cours du temps et qu’il y a de nombreuses interdépendances entre les circuits.
Tu as raison, ce qui fait disparaitre par magie le coût des traitement, c’est la puissance du CPU. Et ça tombe bien, les CPU modernes sont beaucoup plus puissants que les oldies qu’on émule. Elle est pas belle la vie?
En conclusion, je t’engage à relire ce que j’ai écrit, a comprendre ce que j’ai dit et ce que je n’ai pas dit. Faire cela avant de contredire fait gagner du temps à tout le monde.
Toi aussi hein, cf les premières lignes " />
ps: Ah oui, devine quoi, c’est moi qui vait faire le portage d’ACE sur les autres plateformes " />
Le
25/05/2013 à
18h
51
sr17 a écrit :
Pas si simple.
Le résultat, c’est qu’un processeur à 1Ghz suffit tout juste à émuler certains matériels qui tournaient à seulement 8Mhz. Par exemple, l’Amiga est une machine complexe à émuler.
Ben en fait si, c’est simple, quand c’est bien documenté.
Le plus difficile est souvent d’avoir accès à de l’information non documentée et d’émuler des bugs matériel. C’est d’ailleurs pour cette raison que l’amstrad CPC+ n’est toujours pas émulé correctement, alors que le C64 et ses copros, la megadrive ou même la super NES passe sans souci. Tout comme l’Amiga 500 d’ailleurs! Il a peut-être plen de copro mais tout est documenté et il n’y a jamais eu sur cette machine de code tricky, pour une simple raison -> Le hard était prévu pour.
Par contre, pour l’Atari pour lequel l’overscan n’est pas prévu dans les docs a exploité des tas de trucs tordus qui sont plus coûteux à émuler, et il a fallu attendre un peu que des codeurs Atari (Léonard par exemple) se penchent sur la question.
Bref, c’est faux, on émule très bien ce genre de machine avec des CPU à quelques centaines de MHz et on se cogne complètement qu’il y ait plusieurs puces qui tournent en simultané ou pas, vu que c’est é-mu-lé. On fait ce qu’on veut au cycle près.
Le
25/05/2013 à
12h
12
MickeyFreeStyler a écrit :
Avec l’émulation, tu ne peux pas comparer avec le puissance brute de chaque appareil.
Ce n’est pas une émulation, c’est une adaptation.
Et quand bien même. Émuler, ça ne bouffe pas un facteur 100, même en java.
Alors ça pour des baleines, ce sont des baleines :o
J’ai jamais compris l’intérêt qu’on les gens pour les jeux dans lesquels il faut payer pour avancer/gagner. C’est purement scandaleux comme principe. M’enfin, les gens font ce qu’ils veulent." />
Certains sont prêts à payer des fortunes pour avoir leur nom en haut du hall of fame des joueurs qui trichent pour avoir des points " />
le test sur lesnumerique.com le compare au nikon 3200
“Les images du 808 sont globalement correctement exposées. Les ombres et les lumières sont correctement restituées. Le rendu couleur avec la balance des blancs est correct (notre scène est éclairée avec un équivalent lumière du jour). La restitution des détails est simplement exceptionnelle pour un smartphone et comparable à ce que l’on peut tirer d’un reflex entrée et moyenne gamme.”
Ce test met aussi en avant une gestion de l’exposition bien inférieure et une dynamique du capteur nettement moins bonne, une sensibilité aux flares et autres joyeusetés en forte lumière.
Bref, pour un téléphone, c’est assez extra-ordinaire de qualité. Pour remplacer un appareil photo compact, c’est aussi un bon choix. Pour faire mieux qu’un réflex d’entrée de gamme, y a plus personne dès lors qu’on fait du RAW et qu’on utilise autre chose que l’objectif de base, ce qui, rappelons-le à tout hasard, est l’intérêt majeur des réflex, utiliser autre chose que le truc de base en plastique…
Tu es sûr que c’est du sucre à l’huile, ce n’est pas plutôt de l’huile au sucre ?
Les ingrédients sont listés par ordre de quantité du plus présent au moins présent et la composition du Nutella est inscrite sur tous les pots ;)
Le
21/05/2013 à
07h
02
CptAlex a écrit :
Il y a bien du cacao dans le nutella. Tu sors ça d’où ?
Attends, je mets en gras le point important:
Dans le chocolat, il y a du cacao et du beurre de cacao.
Il n’y a donc pas de chocolat dans le nutella (du cacao oui (7% " /> ), comme dans les kinder, avec de l’huile, ça n’en fait pas du chocolat pour autant)
Le
21/05/2013 à
06h
30
amikuns a écrit :
Il va devenir amer leur chocolat à se rythme.
Le nutella ne contient PAS de chocolat, mais du sucre à l’huile et aux noisettes…
Dans le chocolat, il y a du cacao et du beurre de cacao.
Les publicités vont finir par s’incruster directement sur les serveurs des sites l’utilisant. Plus de domaine tiers pour la pub -> plus de possibilité de bloquer facilement car un blocage de pub deviendra un blocage du site purement et simplement…
Suffit de bloquer flash et débloquer à la demande, des tas de plugin font ça très bien.
Nan ça commence à revenir en arrière à cause de l’augmentation constante du cout de transport des marchandises, le piètre qualité des produits chinois (essaie de faire de la mécanique sur une moto avec des outils chinois), les chinois dont le niveau de vie s’élève progressivement et qui demandent du pognon (pour acheter des ipad par exemple " /> ), les soucis rencontré avec les produit chinois genre lait avec des produit pourrit dedans, cuirs qui contient des produits qui brulent la peau….
Et quand on voit que sur une paire de nike par exemple vendu 100 euros, qui coute 3-4 euros à faire fabriquer en chine, s’ils elle étaient fabriqué aux usa elles couteraient 5-6 euros (30% de plus), si on produit en chine c’est vraiment pour grater à mort.
Y a quelques cas emblématiques mais qui sont loin de faire une généralité " />
ps: Le prix du pétrole est censé baissé avec les gaz de schiste US, c’est du moins ce que tentent de nous faire croire certains journaux français.
Le
15/05/2013 à
12h
38
darkbeast a écrit :
pourquoi se gêner les chinois et les étasuniens taxent les produit étrangers à mort quand ça les arrangent
Tout à fait, ce que je dis, c’est que ceux qui nous dirigent n’en veulent pas, ça réduit leurs marges. Faut pas oublier qu’ils délocalisent pour nous revendre ensuite. Oui, ça se mord la queue, oui, ça ne peut pas durer longtemps, mais pour le moment, ça dure…
Le
15/05/2013 à
12h
10
Tourner.lapache a écrit :
Le problème c’est que le sacro-saint libéralisme européen va encore plus à son encontre de nos jours que le simple protectionnisme.
Je pense qu’ils le savent très bien, mais que ça n’empêche pas ceux qui tiennent les ficelles d’encaisser le fric tant qu’il y en a, et de tout faire pour ça. Raisonnement à court terme. Jusqu’ici, ça passe.
Tu augmentes artificiellement le prix des produits qui ne sont pas fabriqués dans des pays qui ont des normes comparables aux notres. (droits de l’homme, normes sociales, …) T’inquiètes que la compétitivité des usines françaises va remonter d’un cran.
Ça va à l’encontre du sacro-saint libéralisme européen.
Le similitude entre images n’est là que pour améliorer une compression lossless, c’est le principe de base du pré-traitement. Bon, ok, ça veut dire que ça ne peut fonctionner que dans une archive, pas sur un système de fichier.
Le
15/05/2013 à
09h
00
Tiens, prenons un exemple à la con, les programmes de création de logiciels panoramiques ou des programmes comme photosynth qui traitent des photos prises à peu près au même endroit, sous des angles différents. Ces logiciels arrivent très rapidement à repérer les portions d’images identiques entre elles, les chevauchements via quelques transformations simples. On peut très bien imaginer qu’un détournement de tels algos puissent exploser les compresseurs actuels sur des lots d’images. En plus, ça serait de la compression asymétrique (lent à compresser, ultra-rapide à décompresser, besoin de moins de resources) donc super intéressant.
Le
15/05/2013 à
08h
54
Faith a écrit :
Le fond de mon propos initial, c’est que les algos actuels de compression loss-less sont quasiment imbattables (en pratique autant qu’en théorie)
Google n’a pas besoin de financer des recherches: le sujet est bouché.
Mais ça, tu n’en sais rien, que ce soit les projets de google et le reste, y a des progrès réalisés chaque année sur la compression, et ça, c’est un fait.
Le
15/05/2013 à
08h
37
sur la page du créateur de Paqar, une explication précise du processus.
jpg2dct is a JPEG preprocessor by Jean-Pierre Demailly, Sept. 4, 2007 (ported from Linux to Windows by Matt Mahoney, Sept. 15, 2007). It expands a JPEG file into DCT coefficients, which makes it larger but sometimes more compressible to other compressors. It is lossy in that the inverse transform does not restore exactly the same file, although it does restore a pixel for pixel identical image.
Avec un pré-traitement sur le JPG, on peut le compresser. Pourtant les données de base sont aléatoires.
Cet algo de 2007 est lossy sur le fichier, pas sur l’image, mais il en existe lossless tout court.
Le
15/05/2013 à
08h
34
Faith a écrit :
On ne peut pas compresser une chaine aléatoire.
Je n’ai jamais dit ça, c’est vilain de détourner la conversation.
J’ai dit qu’on pouvait compresser du JPG à environ 10% en le recodant
Le
15/05/2013 à
08h
33
En plus simple.
Ton jpg est incompressible
Donc tu le décode, tu as de nouvelles données compressibles
Tu utilises de la compression par ondelette au lieu d’une iDCT, c’est plus performant et tu règles ta compression pour qu’une fois décompressée par ondelette et recodée, tu aies le même fichier bit à bit que le JPG d’origine
Tu stockes ton fichier par ondelette 10% plus petit que le JPG
Tu as bien compressé du JPG
On pourrait appliquer ce même principe à n’importe quel fichier compressé.
Sinon, à part ça, oui, j’ai déjà programmé des compresseurs, et je ne vois pas ce que ça vient faire dans la discussion. Si ça se trouve, t’en as déjà programmé plein et ça ne t’empêche pas de te planter en beauté sur les nombreuses astuces qui existent pour compresser ce qui est soit-disant incompressible…
Le
15/05/2013 à
08h
28
Faith a écrit :
Tu réponds sans connaitre… as-tu déjà pris la peine de créer un algo de compression ?
T’as du mal à lire on dirait " />
Il existe DEJÀ des algo qui recodent le JPG et le compresse de 10 à 15%
On s’en fout que le JPG soit aléatoire.
Si on le décode et qu’on le recompresse autrement (sans perte), on est capable lors de la décompression de le reconstruire à l’identique, à partir du format mieux compressé, en un beau JPG pourri tel qu’il était avant compression, à l’octet près.
Wikipedia: “Les taux de compression obtenus par les CM sont parmi les meilleurs obtenus aujourd’hui et ce, quel que soit le type de données à compresser (à l’exception, bien entendu des données aléatoires)”
On gagne juste le delta entre le pseudo aléatoire des données compressées et le réel aléatoire. Probablement pas grand chose dans le cas des compressions actuelles.
T’es au courant que les données d’un JPG ne sont pas aléatoires et que celles d’une vidéo non plus? Ça peut se décoder, se recoder et en lossless. Le seul truc aléatoire dans la vraie vie, ce sont les données chiffrées.
Le
14/05/2013 à
13h
41
Faith a écrit :
De nos jours, on ne peux pas compresser davantage que ce qui se fait déjà:
les formats image, audio, vidéo les plus courants sont déjà compressés au quasi-maximum théorique: la répartition de leurs octets est aussi proche d’une répartition aléatoire que possible.
Google, comme les autres hébergeurs devant faire du loss-less, n’a pas de marge de manoeuvre de ce coté.
Mais comme dit précédemment: chaque utilisateur est loin d’utiliser 100% de son espace !
Et pourtant, les algos à pondération de contexte y arrivent un peu au prix d’une lenteur affligeante, les “recodeurs” aussi, et ça reste lossless à 100% tout en étant rapide. On arrive toujours à gratter, sans faire de miracles toutefois. Ensuite, les fichiers persos ne sont pas qu’images et vidéos, il y a aussi des documents qui se compressent très bien, même si la volumétrie est sûrement plus faible. Mais surtout, le cloud pouvant servir de bureau temporaire, on peut très bien imaginer qu’il y circule aussi beaucoup de données non/mal compressées type TIFF
Le
14/05/2013 à
09h
34
ed a écrit :
C’est marrant les fantasmes autour de Google. Sérieux si vous voulez vous passer de leurs services pars-que vous êtes persuadés qu’ils revendent toutes vos donnée aux chinois du FBI et aux illuminatis, libres à vous.
Personnellement, je n’ai jamais vu mes données fuiter, et je n’ai jamais été sollicité commercialement d’une façon ou d’une autre depuis que j’ai mon compte Gmail.
Et 100go pour 3.8€ par mois, sérieux je essayez de trouver du cloud aussi bon marché.
parce que tes données ont été anonymisées, mais ce n’est pas pour ça qu’elles n’ont pas été exploitées… (relis la charte de google, au passage " />)
Le
14/05/2013 à
08h
24
ed a écrit :
C’est marrant, ça fait 10 ans que j’utilise les services de google, et mes données ne se sont jamais retrouvées dans la nature ou exploitées de façon commerciales.
Tu rêves, elles ont été exploitées en long, en large et en travers. Par contre, elles ont dû être anonymisées avant (encore que…)
Le
14/05/2013 à
08h
06
wagaf a écrit :
Le métier de Google n’est pas de cacher son fric mais d’offrir des services, cacher leur fric est juste une optimisation.
Ça c’est ton point de vue. Le point de vue des actionnaires, c’est que l’optimisation est obligatoire et doit être améliorée chaque année " />
Le
14/05/2013 à
06h
45
knos a écrit :
Bah ça c’est certain qu’ils travaillent dessus. Et puis bon 15go fournis par utilisateur ne veux pas dire 15go remplis.
Et puis maintenant on arrive à 3c du giga donc même avec la redondance (on va dire x2) ça fait 30go. Moins d’un euro par utilisateur.
On parle d’une entreprise qui à eu 50 milliards de dollars en 2012 de chiffre d’affaire lier a la pub en grande parti donc en gros 10€ par humain en age d’être sur le net. (donc imagine pour un consommateur occidentale)
Certes, mais ça reste de la place, de la conso électrique, de la maintenance. Et google aime faire des économies d’échelle. Sans compteur que leur cash est loin d’être disponible, vu qu’il est planqué en grande partie sur des îles fiscalement paradisiaques, mais totalement inintéressantes pour investir dans des datacenters " />
Le
14/05/2013 à
06h
12
Je me demande si google travaille sur des algos de compression à la volée ET performants, parce que ça va finir par leur coûter cher tout ça.
Ou comment le consommateur lambda, va rien comprendre. Quand j’entends dans les grandes surfaces les vendeurs dire aux clients que c’est une carte performante car elles a 2 go, je me demande si il sait a quoi ça sert, perso je fait déjà beaucoup plus attention a la dénomination (660 660ti 650 boost oc ect…).
C’est un raccourci, mais pour un jeu gourmand, avoir plus de mémoire, c’est avoir plus de performances " />
1472 commentaires
18 mois de prison pour un motard aux « exploits » publiés sur YouTube
31/05/2013
Le 31/05/2013 à 14h 04
Le 31/05/2013 à 13h 49
Dommage qu’on manque de place en prison, y a pas assez de motards à mon goût dedans…
Le récap’ des tests : un petit point sur les GPU avant le Computex
29/05/2013
Le 30/05/2013 à 07h 12
Le 30/05/2013 à 06h 27
Quel est votre réseau social favori ?
29/05/2013
Le 30/05/2013 à 06h 23
YouTube propose à ses utilisateurs de créer des vidéos en « Slow Motion »
29/05/2013
Le 29/05/2013 à 08h 13
On a tout essayé : Sonic The Hedgehog sur Android
25/05/2013
Le 27/05/2013 à 13h 30
Le 27/05/2013 à 10h 16
Le 26/05/2013 à 18h 15
Le 26/05/2013 à 16h 39
Le 26/05/2013 à 12h 01
Le 25/05/2013 à 22h 36
Le 25/05/2013 à 22h 09
Le 25/05/2013 à 18h 51
Le 25/05/2013 à 12h 12
Moins de 1 % des joueurs payent pour les jeux free-to-play
24/05/2013
Le 24/05/2013 à 08h 08
Le Lumia EOS, armé de ses 41 mégapixels, serait lancé le 9 juillet
23/05/2013
Le 23/05/2013 à 21h 22
Chrome 27 accélère encore le chargement des pages web
22/05/2013
Le 22/05/2013 à 08h 19
[MàJ] Ferrero annule son action contre le site du World Nutella Day
22/05/2013
Le 21/05/2013 à 09h 08
Le 21/05/2013 à 07h 02
Le 21/05/2013 à 06h 30
Un député inquiet de la « cybermenace qui pèse sur nos vignobles »
20/05/2013
Le 20/05/2013 à 18h 42
Ils feraient mieux de s’inquiéter des ravages que font Monsanto et compagnie sur l’agriculture mondiale…
1,7 million de premiers avertissements envoyés par la Hadopi depuis 2010
17/05/2013
Le 17/05/2013 à 12h 17
Un beau bilan, un beau gaspillage d’argent… " />
[MàJ] Quand Google cache des poneys dans Hangouts, mais pas que…
17/05/2013
Le 17/05/2013 à 08h 01
Poney, aime
She’s crazy like a fool What about it Daddy Cool
Android : les concurrents de Samsung ne font quasi aucune marge
17/05/2013
Le 17/05/2013 à 07h 51
Adblock Plus : la presse allemande s’énerve, mais a-t-elle raison ?
16/05/2013
Le 17/05/2013 à 06h 29
Raspberry Pi : la caméra disponible à moins de 25 €, des guides déjà en ligne
15/05/2013
Le 15/05/2013 à 13h 40
ça ressemble plus à un stop-motion qu’un time-laps
mais bravo aux équipes de dev!
Dumping : Bruxelles menace de taxer les équipementiers chinois
15/05/2013
Le 15/05/2013 à 13h 01
Le 15/05/2013 à 12h 38
Le 15/05/2013 à 12h 10
Le 15/05/2013 à 12h 01
Le 15/05/2013 à 10h 24
Ah Brussels…
soupirs
Google unifie son stockage mais modifie ses tarifs et supprime le bonus Gmail
14/05/2013
Le 15/05/2013 à 09h 24
Le 15/05/2013 à 09h 00
Tiens, prenons un exemple à la con, les programmes de création de logiciels panoramiques ou des programmes comme photosynth qui traitent des photos prises à peu près au même endroit, sous des angles différents. Ces logiciels arrivent très rapidement à repérer les portions d’images identiques entre elles, les chevauchements via quelques transformations simples. On peut très bien imaginer qu’un détournement de tels algos puissent exploser les compresseurs actuels sur des lots d’images. En plus, ça serait de la compression asymétrique (lent à compresser, ultra-rapide à décompresser, besoin de moins de resources) donc super intéressant.
Le 15/05/2013 à 08h 54
Le 15/05/2013 à 08h 37
sur la page du créateur de Paqar, une explication précise du processus.
jpg2dct is a JPEG preprocessor by Jean-Pierre Demailly, Sept. 4, 2007 (ported from Linux to Windows by Matt Mahoney, Sept. 15, 2007). It expands a JPEG file into DCT coefficients, which makes it larger but sometimes more compressible to other compressors. It is lossy in that the inverse transform does not restore exactly the same file, although it does restore a pixel for pixel identical image.
Avec un pré-traitement sur le JPG, on peut le compresser. Pourtant les données de base sont aléatoires.
Cet algo de 2007 est lossy sur le fichier, pas sur l’image, mais il en existe lossless tout court.
Le 15/05/2013 à 08h 34
Le 15/05/2013 à 08h 33
En plus simple.
Ton jpg est incompressible
Donc tu le décode, tu as de nouvelles données compressibles
Tu utilises de la compression par ondelette au lieu d’une iDCT, c’est plus performant et tu règles ta compression pour qu’une fois décompressée par ondelette et recodée, tu aies le même fichier bit à bit que le JPG d’origine
Tu stockes ton fichier par ondelette 10% plus petit que le JPG
Tu as bien compressé du JPG
On pourrait appliquer ce même principe à n’importe quel fichier compressé.
Sinon, à part ça, oui, j’ai déjà programmé des compresseurs, et je ne vois pas ce que ça vient faire dans la discussion. Si ça se trouve, t’en as déjà programmé plein et ça ne t’empêche pas de te planter en beauté sur les nombreuses astuces qui existent pour compresser ce qui est soit-disant incompressible…
Le 15/05/2013 à 08h 28
Le 15/05/2013 à 06h 01
Le 14/05/2013 à 13h 41
Le 14/05/2013 à 09h 34
Le 14/05/2013 à 08h 24
Le 14/05/2013 à 08h 06
Le 14/05/2013 à 06h 45
Le 14/05/2013 à 06h 12
Je me demande si google travaille sur des algos de compression à la volée ET performants, parce que ça va finir par leur coûter cher tout ça.
Windows 8.1 : Microsoft confirme la gratuité de la mise à jour
15/05/2013
Le 15/05/2013 à 08h 44
question con, le 8.1, c’est un service pack en fait?
Les numériques passe au Premium : 2 € par mois, 60 € par an
14/05/2013
Le 15/05/2013 à 06h 23
Le recap’ des tests : des cartes graphiques à moins de 160 euros
14/05/2013
Le 15/05/2013 à 06h 04
La prochaine mise à jour de Minecraft nous en fera voir de toutes les couleurs
13/05/2013
Le 14/05/2013 à 08h 08