votre avatar

raoudoudou

est avec nous depuis le 27 février 2003 ❤️

1472 commentaires

Le 31/05/2013 à 14h 04







inotoff a écrit :



Trop gros <img data-src=" />







Tain j’suis pas doué <img data-src=" />


Le 31/05/2013 à 13h 49

Dommage qu’on manque de place en prison, y a pas assez de motards à mon goût dedans…

Le 30/05/2013 à 07h 12







loulnux a écrit :



Référence élégante mais autre temps, autres meurs ce que j’avance est dans les cartons puisqu’AMD l’a annoncé pour la fin de cette année ce qui mettrait les utilisateurs PC au niveau des plateformes fournies à Sony et Microsoft pour leurs consoles.







Ça va complexifier l’offre et pas forcément faire moins de bruit (à puissance égale, évidemment, un truc qui chauffe, faut le refroidir). Les consoles à venir sont un très bon choix technique, mais est-ce adapté à une machine aussi polyvalente que le PC, je ne pense pas.


Le 30/05/2013 à 06h 27







loulnux a écrit :



J’attends avec impatience le marriage APU/GDDR , j’en ai marre de surpayer des options que je sous-exploite et de m’emmerder avec des ventilateurs dans tous les sens qui bouffent de l’énergie supplémentaires, augmentent les causes de panne et finissent toujours par augmenter la présence sonore de mes configurations.







Comme à l’époque de l’amiga avec la chip et la fast? Ça promet <img data-src=" />


Le 30/05/2013 à 06h 23







Henri_MTL a écrit :



lol Aucun domine…. À se demander pourquoi il y a tant de gens sur les réseaux sociaux si la plupart sait que ça ne sert à rien…. <img data-src=" />







C’est très pratique pour retrouver du monde, échanger de l’info. Mais il est évident qu’y mettre des photos trop privées, laisser les gens taguer ta tête, c’est pas une bonne idée. Il faut apprendre à utiliser ces outils, et pas être utilisé par eux.


Le 29/05/2013 à 08h 13







misterB a écrit :



Le slow motion si ce n’est pas filmé en haute vitesse c’est merdique faut avouer <img data-src=" /><img data-src=" />







Ça fonctionne très bien sur les vidéos qui sont déjà lentes à la base. Sinon, il y a trop d’interpolations et trop de flou. La technique fonctionne parfaitement, mais n’est pas miraculeuse.



Le 27/05/2013 à 13h 30







ben51 a écrit :



Oui justement quand je parle d’émulation cathodique c’est pas les filtre à l’instagram.

Mais bien de faire un rendue qui prend en conte la spécificité de ces écrans et leur utilisation (pixel rectangulaire, diffusion de la couleur entre pixel, rémanence de l’écran)







Ce dont tu parles est aussi du cosmétique <img data-src=" />



Mais oui, certains émulateurs simulent les retards de signaux, pour faire par exemple des effets de vague hard avec l’écran, ou même carrément des décrochages de VBL.


Le 27/05/2013 à 10h 16







ben51 a écrit :



Et l’émulation de l’écran cathodique ?







Y a plusieurs émulateurs qui proposent de belles imitations via des shaders

(effet bombé, effet matricielle rvb, pseudos-reflets, bavures, …)



Et techniquement, certains émulateurs sont obligés d’émuler l’écran, pour obtenir des dé-synchros, mettre plusieurs HBL par ligne (technique dite de rupture)


Le 26/05/2013 à 18h 15







sr17 a écrit :



Non, faire du reverse, ça sers surtout à comprendre comment un circuit fonctionne et comment il se comporte dans les situations non documentées.







Au temps pour moi, j’avais compris autre chose <img data-src=" />


Le 26/05/2013 à 16h 39







sr17 a écrit :



Les ordinateurs étaient documentés pour que les programmeurs puissent écrire des programmes. Aucun ne l’a jamais été au niveau nécessaire pour écrire des émulateurs. Cela suppose que toute personne devant écrire un émulateur devra faire pas mal de reverse engineering.







Les documentations ont toujours été sommaires parce que les programmeurs n’étaient pas censés sortir des clous. Mais en fait, pour reprendre le cas du CPC que je connais bien, les docs existaient ailleurs, chez les fabricants tiers (puce audio, floppy, …) et se baser sur ces docs plutôt que du reverse, c’est ce qui fait qu’ACE est plus fidèle que les autres émulateurs, avec moins de resources. Dont actes ;)



Bref, faire du reverse, c’est bon à faire un émulateur usine à gaz, jusqu’au prochain bout de code tricky qui fera planter l’émulateur parce qu’on sortira une nouvelle fois des clous, au lieu d’émuler la puce correctement.


Le 26/05/2013 à 12h 01







zepcinpact a écrit :



Raoudou a faux sur le cpu. Porter un emulateur ne signifie pas comprendre tout.

il faut savoir que certains jeux par exemple utilisaient le temos de monte des capacites pour scheduler les actions. Un cpu puissant pose de gros pb dans ce genre de cas car on ne peut que tres difficilement emuler ca (un timer ne suffit pas) de meme des jeux comme titan utilisant un bug rare du cpu posent probleme, le bug etant emuke sans le timing reel.



idem pour les scrolling moderne qui sont cadences differement.



bref une emulation de base est simple a faire mais une vraie emulation demande vraiment beaucoup de puissance pour gerer jusqu a l interne.



c est pour ca qu aucjn emukateur, winape compris, ne fourni l exact resultat pour certains jeux.



la puissance brut des proc actuels se fait a partir d architecture tres differente. Cela ne veut donc rien dire sur leur capacite a reelle a reproduire un comportement aleatoire ou dependant d autre parties disparues.







Winape est mal foutu pour les raisons que j’ai expliquées plus haut (premières versions en émulation partielle et ajouts de corrections sur mauvaises bases, beaucoup de boulot pendant des années pour un résultat imparfait) et demande du CPU

ACE est bien foutu dès le départ (aussi, il faut le reconnaitre, parce que l’auteur a su analyser les erreurs des autres pour ne pas les refaire), fonctionne parfaitement et demande peu de CPU

En plus, il peut utiliser des modes vidéos 50Hz natifs pour être parfaitement synchro avec les scrollings les plus dégueulasses



Bref, les faits te donnent tort, désolé hein



Ne désespère pas, bientôt tu pourras utiliser ACE sur autre chose qu’un Amiga <img data-src=" />


Le 25/05/2013 à 22h 36







sr17 a écrit :



Pour le problème du CPC, les quelques tricks utilisés demandent évidement du reverse engineering et plus de resources pour une émulation plus détaillée.







Je voulais rebondir aussi sur cette idée reçue qu’il faille plus de resources pour une émulation plus détaillée.



Beaucoup d’émulateurs ont été écrit par des informaticiens qui n’ont pas de notions en électronique. Résultat, le comportement de la machine est mimé, imparfait, et surtout fondé sur des bases mauvaises. Du coup, pour améliorer l’émulation, on patch, on ajoute des rustines (super bien optimisées hein, en assembleur et tout) mais ça reste lourd et lent.



Alors que d’autres émulateurs sont écrits en C pur, mais par des gens qui connaissent le fonctionnement interne et électronique des puces. Et au final, on se retrouve avec des programmes moins optimisés certes, mais aux algorithmes bien plus simples et justes. L’émulation est pourtant meilleure et utilise moins de resources. Mais cela demande une connaissance approfondie de la machine. On a de beaux exemples dans les émulateurs C64.


Le 25/05/2013 à 22h 09







sr17 a écrit :



Le fait que cela soit documenté n’empêche en rien que cela demande un énorme travail parce qu’il y a énormément de petits détails à gérer.







Je n’ai jamais dit le contraire. Je dis que c’est simple à faire, pas que ça ne demande pas de travail, saisis-tu la différence?





Non, ce n’est pas simple. Un bon émulateur, c’est beaucoup de travail, ça ne s’écrit pas en quelques jours. Pour certains émulateurs, les gars y bossent depuis des années. Rien qu’a lire les changelogs de certains émulateurs, on est impressionné par la quantité de travail qu’ils font à chaque version.





Si, si, c’est simple, on est là encore, sur un manque de documentation. Et souvent, ces modifications sont proposées par d’anciens programmeurs qui connaissent tous les petits trucs (Les évolutions de Winape, par exemple, sont le fait de demomaker, même si c’est Wilson qui se paluche le code au final)







Alors primo, je parlais de quelque chose de complètement différent : les ressources nécessaires pour l’émulation d’une machine ancienne et du fait que ce n’est pas parce que le proco mouline à seulement 8 mhz que c’est forcément hyper-léger à émuler pour un smartphone.





Tu n’as toujours pas l’once d’un début d’explication à ton argumentation. Et pour cause, les faits sont contre toi. Les émulateurs tournent du feu de dieu…







Pour le problème du CPC, les quelques tricks utilisés demandent évidement du reverse engineering et plus de resources pour une émulation plus détaillée.

Mais rien de vraiment plus complexe que sur d’autres bécannes. Il suffit de voir la complexité du hardware d’un 800XL et des tricks utilisés par les programmeurs… et pourtant cette machine est parfaitement émulée.





Le problème du CPC+, c’est surtout que son Asic est buggué jusqu’à l’os…





De plus, le CPC partait de circuits parfaitement standards et relativement bien documentés. Et les tricks utilisés étaient connus des programmeurs.





Non, il y a plus de 4 chipsets graphiques sur le CPC qui ont chacun des comportements différents ET utilisés par les développeurs de jeux vidéos, en particulier sur la fin de vie de la machine.





Je pense que le vrai problème du CPC, c’est que ce n’est jamais devenu une machine culte comme l’Amiga. Et donc personne n’est prêt à y investir autant de temps que pour d’autres machines.





Encore une fois, tu racontes n’importe quoi. Le problème du CPC, c’est sa complexité cachée et le manque de documentation. D’ailleurs, y a un super émulateur bien propre (ACE) qui tourne sur Amiga et qui a été programmé par une des plus grosses tronches sur CPC (Offset). Son développement a été très court.



Pourquoi? Parce qu’il connait la machine sur le bout des doigts.



Une preuve de plus que:




  • c’est simple

  • il faut être documenté



    Conclusion: t’as la doc, ça va vite, t’as pas de doc, c’est bugué et ça prend du temps.





    L’émulation n’est pas une baguette magique qui peut faire disparaitre par magie le coût de traitements parallèles. Si tu regarde un jour le code d’un émulateur, tu comprendra qu’il y a juste des bonnes optimisations qui permettent de ne pas tout simuler ou de ne simuler que ce qui est utilisé. Mais ce n’est pas toujours possible quand un circuit génére un état qui évolue de manière complexe au cours du temps et qu’il y a de nombreuses interdépendances entre les circuits.





    Tu as raison, ce qui fait disparaitre par magie le coût des traitement, c’est la puissance du CPU. Et ça tombe bien, les CPU modernes sont beaucoup plus puissants que les oldies qu’on émule. Elle est pas belle la vie?





    En conclusion, je t’engage à relire ce que j’ai écrit, a comprendre ce que j’ai dit et ce que je n’ai pas dit. Faire cela avant de contredire fait gagner du temps à tout le monde.





    Toi aussi hein, cf les premières lignes <img data-src=" />







    ps: Ah oui, devine quoi, c’est moi qui vait faire le portage d’ACE sur les autres plateformes <img data-src=" />




Le 25/05/2013 à 18h 51







sr17 a écrit :



Pas si simple.



Le résultat, c’est qu’un processeur à 1Ghz suffit tout juste à émuler certains matériels qui tournaient à seulement 8Mhz. Par exemple, l’Amiga est une machine complexe à émuler.







Ben en fait si, c’est simple, quand c’est bien documenté.



Le plus difficile est souvent d’avoir accès à de l’information non documentée et d’émuler des bugs matériel. C’est d’ailleurs pour cette raison que l’amstrad CPC+ n’est toujours pas émulé correctement, alors que le C64 et ses copros, la megadrive ou même la super NES passe sans souci. Tout comme l’Amiga 500 d’ailleurs! Il a peut-être plen de copro mais tout est documenté et il n’y a jamais eu sur cette machine de code tricky, pour une simple raison -&gt; Le hard était prévu pour.



Par contre, pour l’Atari pour lequel l’overscan n’est pas prévu dans les docs a exploité des tas de trucs tordus qui sont plus coûteux à émuler, et il a fallu attendre un peu que des codeurs Atari (Léonard par exemple) se penchent sur la question.



Bref, c’est faux, on émule très bien ce genre de machine avec des CPU à quelques centaines de MHz et on se cogne complètement qu’il y ait plusieurs puces qui tournent en simultané ou pas, vu que c’est é-mu-lé. On fait ce qu’on veut au cycle près.



Le 25/05/2013 à 12h 12







MickeyFreeStyler a écrit :



Avec l’émulation, tu ne peux pas comparer avec le puissance brute de chaque appareil.







Ce n’est pas une émulation, c’est une adaptation.



Et quand bien même. Émuler, ça ne bouffe pas un facteur 100, même en java.


Le 24/05/2013 à 08h 08







dada55 a écrit :



Alors ça pour des baleines, ce sont des baleines :o



J’ai jamais compris l’intérêt qu’on les gens pour les jeux dans lesquels il faut payer pour avancer/gagner. C’est purement scandaleux comme principe. M’enfin, les gens font ce qu’ils veulent.<img data-src=" />







Certains sont prêts à payer des fortunes pour avoir leur nom en haut du hall of fame des joueurs qui trichent pour avoir des points <img data-src=" />


Le 23/05/2013 à 21h 22







amenophis57 a écrit :



faut voir

le test sur lesnumerique.com le compare au nikon 3200



“Les images du 808 sont globalement correctement exposées. Les ombres et les lumières sont correctement restituées. Le rendu couleur avec la balance des blancs est correct (notre scène est éclairée avec un équivalent lumière du jour). La restitution des détails est simplement exceptionnelle pour un smartphone et comparable à ce que l’on peut tirer d’un reflex entrée et moyenne gamme.”







Ce test met aussi en avant une gestion de l’exposition bien inférieure et une dynamique du capteur nettement moins bonne, une sensibilité aux flares et autres joyeusetés en forte lumière.



Bref, pour un téléphone, c’est assez extra-ordinaire de qualité. Pour remplacer un appareil photo compact, c’est aussi un bon choix. Pour faire mieux qu’un réflex d’entrée de gamme, y a plus personne dès lors qu’on fait du RAW et qu’on utilise autre chose que l’objectif de base, ce qui, rappelons-le à tout hasard, est l’intérêt majeur des réflex, utiliser autre chose que le truc de base en plastique…


Le 22/05/2013 à 08h 19







mononokehime a écrit :



J’ai trouvé le moyen d’accélérer le chargement des pages : le SSD ! Je ne pensais pas que ça jouait autant mais en fait oui.







Fais toi un ramdrive et mets ton /tmp dedans <img data-src=" />


Le 21/05/2013 à 09h 08







jokoe a écrit :



Tu es sûr que c’est du sucre à l’huile, ce n’est pas plutôt de l’huile au sucre ?







Les ingrédients sont listés par ordre de quantité du plus présent au moins présent et la composition du Nutella est inscrite sur tous les pots ;)


Le 21/05/2013 à 07h 02







CptAlex a écrit :



Il y a bien du cacao dans le nutella. Tu sors ça d’où ?







Attends, je mets en gras le point important:



Dans le chocolat, il y a du cacao et du beurre de cacao.



Il n’y a donc pas de chocolat dans le nutella (du cacao oui (7% <img data-src=" /> ), comme dans les kinder, avec de l’huile, ça n’en fait pas du chocolat pour autant)


Le 21/05/2013 à 06h 30







amikuns a écrit :



Il va devenir amer leur chocolat à se rythme.







Le nutella ne contient PAS de chocolat, mais du sucre à l’huile et aux noisettes…



Dans le chocolat, il y a du cacao et du beurre de cacao.


Le 20/05/2013 à 18h 42

Ils feraient mieux de s’inquiéter des ravages que font Monsanto et compagnie sur l’agriculture mondiale…

Le 17/05/2013 à 12h 17

Un beau bilan, un beau gaspillage d’argent… <img data-src=" />

Le 17/05/2013 à 08h 01



Poney, aime





She’s crazy like a fool What about it Daddy Cool

Le 17/05/2013 à 07h 51







tazvld a écrit :



Ces 95% me semblent faramineux quand même.







Ils fabriquent tout de A à Z, ça compte pour beaucoup.


Le 17/05/2013 à 06h 29







methos1435 a écrit :



Les publicités vont finir par s’incruster directement sur les serveurs des sites l’utilisant. Plus de domaine tiers pour la pub -&gt; plus de possibilité de bloquer facilement car un blocage de pub deviendra un blocage du site purement et simplement…







Suffit de bloquer flash et débloquer à la demande, des tas de plugin font ça très bien.


Le 15/05/2013 à 13h 40

ça ressemble plus à un stop-motion qu’un time-laps

mais bravo aux équipes de dev!

Le 15/05/2013 à 13h 01







darkbeast a écrit :



Nan ça commence à revenir en arrière à cause de l’augmentation constante du cout de transport des marchandises, le piètre qualité des produits chinois (essaie de faire de la mécanique sur une moto avec des outils chinois), les chinois dont le niveau de vie s’élève progressivement et qui demandent du pognon (pour acheter des ipad par exemple <img data-src=" /> ), les soucis rencontré avec les produit chinois genre lait avec des produit pourrit dedans, cuirs qui contient des produits qui brulent la peau….



Et quand on voit que sur une paire de nike par exemple vendu 100 euros, qui coute 3-4 euros à faire fabriquer en chine, s’ils elle étaient fabriqué aux usa elles couteraient 5-6 euros (30% de plus), si on produit en chine c’est vraiment pour grater à mort.







Y a quelques cas emblématiques mais qui sont loin de faire une généralité <img data-src=" />



ps: Le prix du pétrole est censé baissé avec les gaz de schiste US, c’est du moins ce que tentent de nous faire croire certains journaux français.


Le 15/05/2013 à 12h 38







darkbeast a écrit :



pourquoi se gêner les chinois et les étasuniens taxent les produit étrangers à mort quand ça les arrangent







Tout à fait, ce que je dis, c’est que ceux qui nous dirigent n’en veulent pas, ça réduit leurs marges. Faut pas oublier qu’ils délocalisent pour nous revendre ensuite. Oui, ça se mord la queue, oui, ça ne peut pas durer longtemps, mais pour le moment, ça dure…


Le 15/05/2013 à 12h 10







Tourner.lapache a écrit :



Le problème c’est que le sacro-saint libéralisme européen va encore plus à son encontre de nos jours que le simple protectionnisme.







Je pense qu’ils le savent très bien, mais que ça n’empêche pas ceux qui tiennent les ficelles d’encaisser le fric tant qu’il y en a, et de tout faire pour ça. Raisonnement à court terme. Jusqu’ici, ça passe.



http://www.rue89.com/2013/03/08/bruxelles-les-textes-des-lobbies-copies-colles-d…


Le 15/05/2013 à 12h 01







Tourner.lapache a écrit :



Tu augmentes artificiellement le prix des produits qui ne sont pas fabriqués dans des pays qui ont des normes comparables aux notres. (droits de l’homme, normes sociales, …) T’inquiètes que la compétitivité des usines françaises va remonter d’un cran.







Ça va à l’encontre du sacro-saint libéralisme européen.


Le 15/05/2013 à 10h 24

Ah Brussels…



soupirs

Le 15/05/2013 à 09h 24







Faith a écrit :



C’est pas du lossless.







Le similitude entre images n’est là que pour améliorer une compression lossless, c’est le principe de base du pré-traitement. Bon, ok, ça veut dire que ça ne peut fonctionner que dans une archive, pas sur un système de fichier.







Le 15/05/2013 à 09h 00

Tiens, prenons un exemple à la con, les programmes de création de logiciels panoramiques ou des programmes comme photosynth qui traitent des photos prises à peu près au même endroit, sous des angles différents. Ces logiciels arrivent très rapidement à repérer les portions d’images identiques entre elles, les chevauchements via quelques transformations simples. On peut très bien imaginer qu’un détournement de tels algos puissent exploser les compresseurs actuels sur des lots d’images. En plus, ça serait de la compression asymétrique (lent à compresser, ultra-rapide à décompresser, besoin de moins de resources) donc super intéressant.

Le 15/05/2013 à 08h 54







Faith a écrit :



Le fond de mon propos initial, c’est que les algos actuels de compression loss-less sont quasiment imbattables (en pratique autant qu’en théorie)

Google n’a pas besoin de financer des recherches: le sujet est bouché.







Mais ça, tu n’en sais rien, que ce soit les projets de google et le reste, y a des progrès réalisés chaque année sur la compression, et ça, c’est un fait.


Le 15/05/2013 à 08h 37

sur la page du créateur de Paqar, une explication précise du processus.



jpg2dct is a JPEG preprocessor by Jean-Pierre Demailly, Sept. 4, 2007 (ported from Linux to Windows by Matt Mahoney, Sept. 15, 2007). It expands a JPEG file into DCT coefficients, which makes it larger but sometimes more compressible to other compressors. It is lossy in that the inverse transform does not restore exactly the same file, although it does restore a pixel for pixel identical image.



Avec un pré-traitement sur le JPG, on peut le compresser. Pourtant les données de base sont aléatoires.



Cet algo de 2007 est lossy sur le fichier, pas sur l’image, mais il en existe lossless tout court.

Le 15/05/2013 à 08h 34







Faith a écrit :



On ne peut pas compresser une chaine aléatoire.







Je n’ai jamais dit ça, c’est vilain de détourner la conversation.



J’ai dit qu’on pouvait compresser du JPG à environ 10% en le recodant


Le 15/05/2013 à 08h 33

En plus simple.



Ton jpg est incompressible



Donc tu le décode, tu as de nouvelles données compressibles



Tu utilises de la compression par ondelette au lieu d’une iDCT, c’est plus performant et tu règles ta compression pour qu’une fois décompressée par ondelette et recodée, tu aies le même fichier bit à bit que le JPG d’origine



Tu stockes ton fichier par ondelette 10% plus petit que le JPG



Tu as bien compressé du JPG



On pourrait appliquer ce même principe à n’importe quel fichier compressé.



Sinon, à part ça, oui, j’ai déjà programmé des compresseurs, et je ne vois pas ce que ça vient faire dans la discussion. Si ça se trouve, t’en as déjà programmé plein et ça ne t’empêche pas de te planter en beauté sur les nombreuses astuces qui existent pour compresser ce qui est soit-disant incompressible…

Le 15/05/2013 à 08h 28







Faith a écrit :



Tu réponds sans connaitre… as-tu déjà pris la peine de créer un algo de compression ?







T’as du mal à lire on dirait <img data-src=" />



Il existe DEJÀ des algo qui recodent le JPG et le compresse de 10 à 15%



On s’en fout que le JPG soit aléatoire.



Si on le décode et qu’on le recompresse autrement (sans perte), on est capable lors de la décompression de le reconstruire à l’identique, à partir du format mieux compressé, en un beau JPG pourri tel qu’il était avant compression, à l’octet près.



Jette un œil aux programmesfr.wikipedia.org Wikipedia<img data-src=" />


Le 15/05/2013 à 06h 01







Faith a écrit :



Wikipedia: “Les taux de compression obtenus par les CM sont parmi les meilleurs obtenus aujourd’hui et ce, quel que soit le type de données à compresser (à l’exception, bien entendu des données aléatoires)”

On gagne juste le delta entre le pseudo aléatoire des données compressées et le réel aléatoire. Probablement pas grand chose dans le cas des compressions actuelles.







T’es au courant que les données d’un JPG ne sont pas aléatoires et que celles d’une vidéo non plus? Ça peut se décoder, se recoder et en lossless. Le seul truc aléatoire dans la vraie vie, ce sont les données chiffrées.


Le 14/05/2013 à 13h 41







Faith a écrit :



De nos jours, on ne peux pas compresser davantage que ce qui se fait déjà:

les formats image, audio, vidéo les plus courants sont déjà compressés au quasi-maximum théorique: la répartition de leurs octets est aussi proche d’une répartition aléatoire que possible.



Google, comme les autres hébergeurs devant faire du loss-less, n’a pas de marge de manoeuvre de ce coté.

Mais comme dit précédemment: chaque utilisateur est loin d’utiliser 100% de son espace !







Et pourtant, les algos à pondération de contexte y arrivent un peu au prix d’une lenteur affligeante, les “recodeurs” aussi, et ça reste lossless à 100% tout en étant rapide. On arrive toujours à gratter, sans faire de miracles toutefois. Ensuite, les fichiers persos ne sont pas qu’images et vidéos, il y a aussi des documents qui se compressent très bien, même si la volumétrie est sûrement plus faible. Mais surtout, le cloud pouvant servir de bureau temporaire, on peut très bien imaginer qu’il y circule aussi beaucoup de données non/mal compressées type TIFF


Le 14/05/2013 à 09h 34







ed a écrit :



C’est marrant les fantasmes autour de Google. Sérieux si vous voulez vous passer de leurs services pars-que vous êtes persuadés qu’ils revendent toutes vos donnée aux chinois du FBI et aux illuminatis, libres à vous.

Personnellement, je n’ai jamais vu mes données fuiter, et je n’ai jamais été sollicité commercialement d’une façon ou d’une autre depuis que j’ai mon compte Gmail.

Et 100go pour 3.8€ par mois, sérieux je essayez de trouver du cloud aussi bon marché.







parce que tes données ont été anonymisées, mais ce n’est pas pour ça qu’elles n’ont pas été exploitées… (relis la charte de google, au passage <img data-src=" />)


Le 14/05/2013 à 08h 24







ed a écrit :



C’est marrant, ça fait 10 ans que j’utilise les services de google, et mes données ne se sont jamais retrouvées dans la nature ou exploitées de façon commerciales.







Tu rêves, elles ont été exploitées en long, en large et en travers. Par contre, elles ont dû être anonymisées avant (encore que…)


Le 14/05/2013 à 08h 06







wagaf a écrit :



Le métier de Google n’est pas de cacher son fric mais d’offrir des services, cacher leur fric est juste une optimisation.







Ça c’est ton point de vue. Le point de vue des actionnaires, c’est que l’optimisation est obligatoire et doit être améliorée chaque année <img data-src=" />


Le 14/05/2013 à 06h 45







knos a écrit :



Bah ça c’est certain qu’ils travaillent dessus. Et puis bon 15go fournis par utilisateur ne veux pas dire 15go remplis.



Et puis maintenant on arrive à 3c du giga donc même avec la redondance (on va dire x2) ça fait 30go. Moins d’un euro par utilisateur.



On parle d’une entreprise qui à eu 50 milliards de dollars en 2012 de chiffre d’affaire lier a la pub en grande parti donc en gros 10€ par humain en age d’être sur le net. (donc imagine pour un consommateur occidentale)







Certes, mais ça reste de la place, de la conso électrique, de la maintenance. Et google aime faire des économies d’échelle. Sans compteur que leur cash est loin d’être disponible, vu qu’il est planqué en grande partie sur des îles fiscalement paradisiaques, mais totalement inintéressantes pour investir dans des datacenters <img data-src=" />


Le 14/05/2013 à 06h 12

Je me demande si google travaille sur des algos de compression à la volée ET performants, parce que ça va finir par leur coûter cher tout ça.

Le 15/05/2013 à 08h 44

question con, le 8.1, c’est un service pack en fait?

Le 15/05/2013 à 06h 23







Eored a écrit :



Avant il prêtait ses acquisitions à ses potes/familles. Très difficile de prêter un abonnement digital.







Tu prêtais les mensuels, pas les quotidiens…


Le 15/05/2013 à 06h 04







Clad omnislash a écrit :



Ou comment le consommateur lambda, va rien comprendre. Quand j’entends dans les grandes surfaces les vendeurs dire aux clients que c’est une carte performante car elles a 2 go, je me demande si il sait a quoi ça sert, perso je fait déjà beaucoup plus attention a la dénomination (660 660ti 650 boost oc ect…).







C’est un raccourci, mais pour un jeu gourmand, avoir plus de mémoire, c’est avoir plus de performances <img data-src=" />


Le 14/05/2013 à 08h 08







Holly Brius a écrit :



Vu comme ça, c’est logique que j’aime pas… <img data-src=" />

Minecraft, le modeleur 3D le pire du marché <img data-src=" />







Un honteux plagiat de tétris qui veut surfer sur la vague! <img data-src=" />























<img data-src=" />