votre avatar

Qruby

est avec nous depuis le 4 septembre 2013 ❤️

1088 commentaires

Le 15/07/2014 à 18h 17







DDReaper a écrit :



En effet le site a été mis à jour : mis à jour disponible pour les 625 nu, les 625 SFR, les 925 nu et les 925 Orange.





Comme quoi, le passage par l’opérateur peut se faire rapidement <img data-src=" />

Je suis en train de mettre à jour :p


Le 14/07/2014 à 20h 04







barlav a écrit :



Ok ok j’ai un peu poussé mémé.

N’empêche que tu comptes bcp de frais inutiles dans le cout direct?

Parce que entre ce que le client a besoin et ce qui fait le cout direct, je dirais qu’on pourrait creuser un peu.

Disons qu’il y a plein de moyens de moduler le bilan annuel…





Y’a pas vraiment d’intérêt à moduler le bilan annuel dans ce sens, annoncer une super marge brute ça a toujours de la gueule face aux actionnaires.

Avec des produits comme ça, t’as toujours un client qui l’utilise pas entièrement et un client qui abuse, mais dans le fond ça doit être relativement équilibré.

Après je ne suis pas spécialiste des logiciels à licence, mais pour travailler dans une boite qui fait du développement, tout coute très chers dès que t’as plus de 50 personnes à faire travailler ensemble.


Le 14/07/2014 à 17h 10







barlav a écrit :



Déjà, ils ne seraient pas dans ma poche parce que je ne les aurait pas pris à d’autres poches.

Disons que vendre des licences 100\( au lieu d'1\) qui est le cout réel, c’est un peu la base du pb à mon sens.





\(1 le cout réel? <img data-src=">

c'est plutôt \)
15 de coût direct je dirais, après t’as d’autres coûts + investissement dans les technos/R&D etc. qu’il faut bien financer etc.

Au final l’EV/EBIDTA de Microsoft est de l’ordre de grandeur des autres entreprises du secteur. Donc soit c’est un secteur de gros pourris, soit ils sont pas plus méchant que les autres.


Le 13/07/2014 à 21h 58







Gilles.T a écrit :



Amen à la conclusion de Bruce, rien à ajouter.



Sinon ils ont trouvé le bon filon pour faire de la propagande politique sans frais, avec Datagueule, manifestement… Il manque juste le petit logo “sponsorisé par la CGT” <img data-src=" />





Moi j’ai quand même à ajouter, car pour une fois que je le trouve un peu light le Bruce, surtout à la fin.



Un bon scientifique, pour distinguer simple corrélation et causalité, infère la causalité selon 3 critères : la covariation, la précédence temporelle, l’élimination d’explications alternatives. Et il y a huit effets pouvant limiter cette inférence : effet d’histoire, effet de maturation, effet de test, effet d’instrumentation, effet de régression statistique, effet de sélection, effet de mortalité expérimentale et effet de contamination.



Cela aurait peut être fait une vidéo un peu plus longue, mais c’est dommage de ne pas donner la méthode :)


Le 09/07/2014 à 21h 25







Tim-timmy a écrit :



nope, france télécom c’est plutôt 1.5 milliards de dividendes en 2013, ça a beaucoup baissé… C’était juste 95% du résultat il y a encore 2-3 ans.. Ils ont un peu réduit, car Stéphane richard a lutté pour faire accepter à l’état que ça s’appelait foncer dans le mur pour les financer à court terme…



Et bon, comparer les dividendes au CA n’a strictement aucun sens, le résultat serait plus pertinent





Pourquoi le résultat?

Moi je compare le dividende à la valorisation, car au final, les dividendes c’est juste un moyen d’influencer la valorisation.


Le 08/07/2014 à 17h 16







viruseb a écrit :



J’ai quand même l’impression que vous découvrez les appels d’offre.



En aucuns cas le produit finis n’est livré. il peut s’agir d’une maquette présentant le concept ou des résultats d’un algo prototype de tri de données type big data.



Répondre à ce genre de trucs cela prend beaucoup de temps et on en gagne le quart/moitié quand on est bon.



On se rattrape sur les projets gagnés et cela a toujours été ainsi (et même bien avant le net).





J’ai regardé un peu les concours : oui c’est vrai dans un sens, le travail n’est livré que lorsque l’on a été short listé.



J’ai l’impression qu’il s’agit plutôt d’un moyen de se faire recruter/repérer. Clairement le niveau demandé par ces concours peut être assez important, et je pense qu’il s’adresse surtout aux écoles d’ingé spécialisées dans la manipulation des données.

Bon le truc de la SNCF n’a pas l’air bien compliqué, et ressemble pas mal à un DS d’optimisation. J’ai même l’impression d’avoir déjà fait un boulot similaire en école. A mon avis, ils savent déjà le faire en interne, et au vu des données du problème il doit y avoir une solution déjà trouvée.


Le 07/07/2014 à 21h 00







Umbrella a écrit :



Ok. Et concrètement, de façon “réelle”, en monnaie sonnante et trébuchante si je peux me permettre l’expression, si un client parvient (par quelque moyen que se soit) à télécharger par exemple 1 To de données sur le réseau mobile d’un opérateur avec son forfait, en laissant tourner sa connexion 4G une journée entière en continue en téléchargeant des films, combien cela coûte-t-il directement à l’opérateur ? A combien évalues-tu l’impact direct d’une telle consommation pour l’opérateur (en euros).





En fait le problème c’est pas tant le mec isolé qui fait 1To dans son coin, c’est qu’en ouvrant les vannes, tu ouvre les usages et tu pousse la consommation moyenne en dehors du seuil de rentabilité pour l’opérateur ou de la capacité du réseau à encaisser la charge.

En France on a l’habitude d’être super conservateur, du coup on prend pas de risques (à part Free, mais ça va avec son marketing agressif). Je pense très sincèrement que le réseau pourrait encaisser une consommation moyenne bien plus élevée.

Aux US par exemple, ils ont eut de gros problèmes avec leur réseau 3G qui n’était pas capable d’encaisser ce qu’ils vendaient, et ils recommencent à avoir la même chose avec le réseau 4G. Une des raisons principale ce sont les forfaits iPhone vendus en 2007 qui étaient illimité, ça leur a coûté extrêmement chers. Du coup les opérateurs ont eut les chocottes

C’est difficile de trouver un équilibre entre les coûts réseau et l’offre, car c’est un système complexe qui dont l’équilibre n’est pas robuste.

L’avantage d’un modèle conservateur à la française, c’est que la qualité du service sera toujours là. (Elle n’est pas bien markété par contre à mon avis).



Dans tous les cas, la 4G révolutionne vraiment la data, et la “scalabilité” (ou mise à l’échelle en bon français) est bien meilleure. De plus les gros consommateurs choisissant souvent la 4G on va à mon avis avoir des offres grosse capacité (voir illimité si on a des couillus) d’ici la fin de l’année.


Le 07/07/2014 à 18h 21







Umbrella a écrit :



PCRF ? De quoi s’agit-il exactement ? A quoi sert cet élément du réseau ?





Cet élément réseau permet de vérifier en temps réel que ce que l’utilisateur fait est conforme à son forfait (Par exemple qu’un utilisateur 2€ de free ne dépasse pas les 20Mo attribués, ou un client roaming pour lui envoyer un SMS s’il est au dessus d’un certain seuil etc.). Entre autres il permet de faire également de la QoS notamment pour la VoLTE par exemple.



En fait la principale difficulté vient d’une part des différentes offres data, d’autre part de la nécessité de faire de la QoS sur du mobile (pas le choix) et enfin des différentes version des réseaux à maintenir (les réseaux 2G et 3G sont très chiants). On réfléchi actuellement à denouvelles approches, moins couteuses.



Les forfaits illimités qui existent sont viables uniquement parce qu’ils garantissent dans leur clause de pouvoir réduire l’accès en cas d’utilisation non conforme (notamment les forfaits illimités au UK), et qu’en moyenne les utilisateurs sont plus autour du 1Go que du 10Go.


Le 07/07/2014 à 16h 01







Umbrella a écrit :



La data mobile ne coûte pas plus chère à produire une fois le réseau en place. Qu’un mec télécharge 1 Go ou 100 Go sur l’antenne ça ne coûtera pas plus chère que s’il avait consommé ces Go sur le fixe. C’est juste que ça augmentera le niveau de saturation de l’antenne. Donc de l’illimité c’est difficile d’imaginer, mais une multiplication par 10 des fair use est absolument nécessaire !





C’est une notion archi-fausse.

Tu prend le problème au niveau de l’antenne, mais ce n’est pas le cas. C’est extrêmement dur d’estimer le côut au Go, donc c’est des données qui varient fortement, mais moyenné sur l’ensemble du territoire cela peut faire sens, surtout pour du mobile (ce n’est pas le cas pour du fixe).

Outre les frais génériques de BP Internet (Wholesale entre FAI et opérateurs de transit etc.), pour le mobile s’ajoute : la gestion du réseau (surtout au niveau du contrôle des polices tarifaires), l’installation des antenne et la maintenance des antennes. Or précisément, la gestion du réseau se complexifie avec la montée en BP (car il faut ajouter des PCRF et des serveurs pour gérer le trafic), l’installation des antennes est liée à la consommation en BP (il faut installer plus d’antenne pour plus de BP, surtout en 4G) et la maintenance qui s’en suit est logiquement impactée.

La BP a un prix, c’est un fait, surtout en mobile. Ce qui induit logiquement que la quantité de donnée envoyée/reçue sur un mois a un prix.

Là où tu peux négliger le prix c’est dans le cas où t’as pas besoin de PCRF (WAN opérateur par exemple), dans ce cas là tu peux ouvrir les vannes.

Pour donner un ordre de grandeur, il faut environ un rack 8U de serveurs pour 100 utilisateurs en 3G.



Les prix baissent par contre. Parce que la 4G est beaucoup moins gourmande en serveur, et aussi parce que les serveurs sont de plus en plus puissants.


Le 02/07/2014 à 06h 45







Umbrella a écrit :



La data ne coûte rien aux opérateurs à produire ! 3 Go c’est de l’arnaque, on les dévore en 10 minutes avec la 4G. Et les nouvelles offres d’Orange ont l’air toujours aussi pourries : 3 Go Origami Play et l’autre 7 Go Origami Play. J’espère qu’Orange ne va pas oser lancer la 4G+ avec de la data dans des proportions toujours aussi grotesquement faibles. Les pires adeptes du foutage de gueule : Orange ! Je suis sûr qu’ils aimeraient nous vendre une superbe offre fibre 1 Gbit/s symétrique avec 100 Go de fair use, ils aimeraient ça les cochons !!!





La data mobile coûte chers, surtout sur le réseau 3G. C’est environ 2,5€/Go, rien qu’en France. Quand on sait pas de quoi parle, on évite de dire des bêtises ;)

Et la 4g ne sert pas que a télécharger, moi je suis en 4g et j’utilise à peine 1Go par mois, tout est plus rapide et c’est ce que je cherchais :)


Le 07/07/2014 à 16h 19







Cronycs a écrit :



Tu n’es pas très à jour, ce n’est vrai que pour les bandes 2.4 Ghz.



200mW en intérieur et 1000mW en extérieur sur les bandes 5Ghz.



Et je peux t’assurer que rester à coté d’une antenne qui emet à 1W toute une journée, tu as un beau mal de crâne après!!





Au temps pour moi. Cela dit, la bande où les tissus humain sont les plus sensibles c’est 2.4GHz. A 5GHz, il faudrait sans doute bien plus que 1W pour faire le même effet que les 100mW du 2.4GHz.


Le 07/07/2014 à 13h 24







baldesarini a écrit :



Prends un Windows Phone, c’est nickel <img data-src=" />

<img data-src=" />





J’ai un L925, malgré l’aluminium ça chauffe pas mal dans les jeux également. Je ne pense pas que ça soit donc une question de matériau, mais bien de CPU sur-dimensionné. Ceci explique en parti également le fait qu’il y ai peu de téléphone haut de gamme de petite taille (Sauf le Sony Z compact)


Le 07/07/2014 à 10h 18







romjpn a écrit :



J’ai jamais bien compris les vitesses wifi hallucinantes annoncées. Enfin je sais pas mais en Ethernet chez moi j’ai ~800 mega sur ma connexion 1gb et avec un petit modem wifi USB branché sur le gros routeur, je fais du ~32 mega sur la tablette. Bon c’est bien suffisant mais je suis loin des 300 megas annoncés !





Il faut avoir un bon routeur, et un bon récepteur. Typiquement une box opérateur + une tablette c’est ce qu’il y a de moins performant.

Si tu prend un routeur type AC68-U, tu peux taper dans le débit maximum théorique à environ 5m, ça diminue légèrement après. Avec un AC66-U comme routeur, et un intel 6200-N (portable) je suis à 35Mo/s de transfert sur les 37Mo/s théorique (300Mbps).

Par contre le Wi-Fi c’est du half-duplex et le débit est partagé. Ce qui veux dire que si tu fais de l’émission/réception simultanée, le débit est fortement ralenti; et si plusieurs périphériques réseau font ça en même temps, c’est encore pire. D’où l’intérêt d’avoir un routeur qui possède plusieurs bandes et d’utiliser des protocole prévus pour le half-duplex (SMB3 au lieu de SMB2 par exemple pour les dossiers réseau)


Le 07/07/2014 à 10h 12







Cacao a écrit :



Le cancer est livré avec ?





De toute façon tu peux pas dépasser 100mW en France, donc quelque soit le débit, ton cancer sera le même.

Limite je dirais qu’il sera moins grand, car à consommation égale, il y aura moins besoin d’énergie pour faire transiter les données. <img data-src=" />


Le 05/07/2014 à 10h 54







brazomyna a écrit :



Je pense sincèrement le contraire vis à vis du streaming dans sa forme actuelle. Le streaming a des répercutions sur la charge induite sur les réseaux qui ne sont pas neutres, notamment financièrement, alors que dans le même temps le coût du stockage est faible.



L’avenir le plus efficient est sans doute un mix des deux, transparent pour l’utilisateur: quand le fichier n’est pas dispo en local, on fera effectivement du streaming, mais en se basant sur des protocoles type p2p pour pouvoir aller chercher le fichier au plus près de sa position, et donc surcharger la plus petite portion possible du réseau du fai.

Et le reste du temps, un système de mise en cache intelligent et transparent pour l’utilisateur, pour que seule la première lecture soit réellement en streaming, les autres lecture utilisant le cache local pour ne pas charger inutilement le réseau.





Le problème du cache, c’est que ça va à l’encontre de la neutralité des réseaux. Or beaucoup de gens ne jurent que par cela. Qui choisi les données à mettre en cache? Quid de la vie privée?

A l’heure actuelle c’est déjà fait, on a des CDN pour YouTube par exemple. Moi je ne suis pas forcément un ayatollah de la neutralité des réseaux car je pense que ça induit un gâchis de la bande passante, qui est une ressource réelle et non un concept illimité et inépuisable.


Le 05/07/2014 à 09h 18







jpaul a écrit :



[quote:5081281:jeje07]



le marketing fait tout…… quand je vois tous ces iphones dans la nature avec des écran assez rikiki en 2014 et qui sont le plus souvent sous utilisés par rapport à leur potentiel, ca fait mal au coeur!



perso content de mon HTC one S qui a 2 ans d’age, je suis pas prêt de la lacher.



Ah ben tu vois, le seul avantage que je trouve à l’iPhone, en plus de sa finition exemplaire, c’est justement sa taille Rikiki. Mais je l’ai déjà dit. Je radote <img data-src=" />

[/quote]

C’est effectivement un avantage. J’ai un 4,5” et je trouve ça trop grand, mais je voulais du haut de gamme, donc je n’avais pas le choix. Heureusement c’est un WP8, donc la plupart des contrôles sont situés en bas de l’écran, ce qui permet de manipuler le terminal à une main, même si mon pouce n’atteint pas le haut de l’écran.


Le 02/07/2014 à 21h 00







moggbomber a écrit :



ce ne sont pas des jeux mais des générateurs de frustrations.



En fait la partie jeu est très très limitée. le seul but étant de vous rendre accro à une progression dans laquelle vous vous investissez et plus vous le faites moins vous voulez lâcher pour ne pas perdre les précédents investissements (de temps et/ou d’argent).



c’est juste que EA n’est pas encore trop bon la dedans, trop gourmand et a déjà une image désastreuse. il est de plus en plus dur d’ailleurs de trouver de vrais jeux sur les plateformes mobiles je trouve…





Le truc c’est que quand tu regardes le top 10 des applications qui rapportent le plus, ce sont pour la plupart des F2P pompe à fric. Du coup j’imagine que la tentation est grande de vouloir suivre les “leaders”. Des F2P qui sont de vrais jeux y’en a pas beaucoup sur mobile. A chaud je dirais Hearthstone, où l’équilibre a été très bien fait.


Le 02/07/2014 à 13h 05







patos a écrit :



Non.

Le MPIO est une solution d’utilisation de chemins simultanés (à travers une gestion de priorité, ou de redondance) qui permet d’utiliser une combinaison une source =&gt; plusieurs IPs de destination =&gt; une destination.

Le iSCSI est une solution d’utilisation de volume distant en bloc.

Pour que du iSCSI soit partagé, il faut que les différentes machines aient une solution de gestion des accès concurrents. C’est réservé aux OSs serveurs (Windows 2012 avec activation de cluster, vSphere, etc…). C’est impossible pour des ordinateurs clients d’utiliser la même ressources iSCSI.



Par contre, rien ne t’empèche d’utiliser un bout de ton NAS en SMB et un bout de ton NAS en iSCSI. Attention par contre aux disques que tu mets dedans….

Par contre, pour des questions de latence, on préconise du 10GbT dans le cadre du iSCSI “travail”. Et il n’est pas possible de faire de l’agrégation de liens pour simuler une plus grande passante (à cause de la latence justement qui ne s’améliore).





Ok, donc pas de solution réseau plus rapide/réactive que le SMB3 pour des ressources partagées.


Le 02/07/2014 à 09h 18







patos a écrit :



Le iSCSI et le MPIO sont nos amis dans ce genre de cas. Bien plus que les switchs 10GbT où l’agrégation est une chie infâme à configurer.



Avis aux amateurs: les QNAPs sont les seuls “grand public” / “entrée - milieu de gamme pro” à supporter correctement le iSCSI et le MPIO… <img data-src=" />





Question: plusieurs ordinateurs peuvent se connecter en même à un même disque en iSCSI grâce au MPIO c’est ça?

Je suis en SMB3 chez moi, les performances sont correctes, mais il y a trop de latence pour utiliser le disque réseau comme disque de travail.


Le 01/07/2014 à 13h 45







js2082 a écrit :



Steam propose de l’achat de jeux. Là, c’est de la location.

L’abonnement, c’est un piège sur le long terme.



Avec Steam, t’as des jeux très développés. Avec la Ouya, t’as des jeux de smartphones, limités en graphisme, fonctions, taille, etc…



Si Steam veut garder son public, il n’a surtout pas intérêt à rentrer dans ce système.





C’est de moins en moins le cas, on commence a avoir de très beau jeux sur Smartphone


Le 01/07/2014 à 08h 50







after_burner a écrit :



Ce genre de “test” est monnaie courante pour la publicité, et je doute que l’on prenne le temps “d’informer” l’utilisateur avant.

<img data-src=" />





Pas que dans la publicité, c’est couramment utilisé dans les apps, sur les sites web etc. cela s’appelle de l’A/B testing. Deux groupes d’utilisateurs sélectionnés aléatoirement ne voient pas exactement le même site web. Cela permet d’améliorer l’expérience utilisateur en repérant les points qui bloquent, les pages inutiles. Cela permet également de savoir ce qui marche d’un point de vue CRM (le design de page qui pousse le plus à l’achat etc.).

Par contre les conclusions avec des différences de 0.1-0.2%, j’ai envie de dire “Waow”, heureusement que le sample est grand quoi, mais est-ce-que les facteurs de désirabilité social ont été inclus? Où est-ce-qu’on ne mesure pas juste un halo?



l’observation des expériences positives des autres constitue une expérience positive pour les gens.



Pour tirer ça comme conclusion avec les résultats qu’ils ont, faut être culotté quand même.


Le 30/06/2014 à 17h 27







EMegamanu a écrit :



J’ai la sensation que ces offres parasitent fortement Zen et Play (en fibre seule du moins) ^^;





Je pense me désabonner de mon offre Zen d’ailleurs.


Le 30/06/2014 à 16h 27







quady42 a écrit :



Dans le cas de WP se sont bien les opérateur qui trainent les pieds car les versions stocks sont souvent dispo et les versions opérateur tardent à arrivé par exemple le lumia 920 chez SFR qui n’était pas compatible 4G… alors que en stock et chez orange il l’était meme avec la version d’avant… bref les opérateur ne devrait pas pouvoir supprimer des fonctionnalité…. juste en rajouté et encore…





Ce sont les opérateurs qui trainent les pieds car les constructeurs (en l’occurrence Nokia) font très mal leur boulot de qualité sur les baseband. Sur la GDR2, c’était assez flag. Moi j’ai eu l’update hors opérateur car le tel était débloqué, j’ai eu 6 différentes nouvelles update dans les deux mois qui suivaient, corrigeant des petits bugs, mais des bugs présents (hyper rare, mais bon, autant faire le boulot jusqu’au bout quoi).

C’est pareil chez Apple qui ne donnent que des boites noires aux opérateurs, résultats t’as toujours des updates dans les semaines qui suivent les release. Les meilleures étant celle des pannes de réveil.


Le 29/06/2014 à 22h 18







Ph11 a écrit :



(…)





Impossible de débattre avec toi.

Je te propose d’explorer des notions que visiblement tu ne connais pas, et tu ne fais même pas mime de t’y intéresser.



Du coup, question économie. Je te conseille de lire : La Philosophie de l’Argent de Georg Simmel. C’est pas facile à lire comme pavé mais ça permet de briller en société.



Sur les problèmes de facteurs,de modèles, de définition et de propriété, je te propose un livre sur la théorie des systèmes complexes : Entre le cristal et la fumée d’Henri Atlan.



Sur les conséquences de la génétique sur notre comportement, là je ne sais pas. Je te conseille un bon documentaire sur les bonobos et les éléphants d’Afrique, ça peut inspirer.



Dans un débat c’est difficile de mélanger des situation concrètes avec des questionnement méta-physique en faisant des raccourcis. Le problème des commentaires de PCI, c’est que c’est trop court pour faire les deux. Voilà pourquoi j’esquive un débat qui en vaudrait la peine.



Bonne soirée :)


Le 29/06/2014 à 18h 16







Ph11 a écrit :



Les modes évoluent, les idées dominantes et la psychologie des foules aussi.



Consensus sur quoi ?



consensus sur le fait que être en bonne santé est un facteur améliorant le bonheur

Je n’ai pas dit cela. De toutes façons, l’économie est l’étude de l’organisation des hommes pour résoudre leurs problèmes.



Arf, je ne parlais pas de l’économie dans ce sens là, mais plus dans le fait de faire une tâche plutôt qu’une autre, une tâche qui maximise l’économie est une tâche qui est plus économe pour nous.

Exemple… 1 problème : j’ai faim, solution : je mange; 1 problème, j’ai pas de nourriture, solution : je vais chasser-produire-échanger, etc… L’homme résout des problèmes d’ordre matériel, se donne les moyens de les résoudre, etc…

Est-ce que ça a à voir avec le bonheur ? Je sais pas, et je doute qu’on puisse réellement y répondre.

du coup ça n’a plus beaucoup de sens comme conversation ^^

Cependant, j’ai de sérieux doutes quant à des alternatives politiques de bonheur planifié…

Déjà, qu’est-ce que le bonheur collectif ? Est-ce la somme des bonheurs individuels ou un truc abstrait quasi-mystique ? Qui défini le bonheur ? Le bonheur décrété sera celui qui avantage une soi disant majorité au détriment d’1 minorité ?

on n’a pas forcément besoin de définir le bonheur, ni de le mesurer, mais plutôt de savoir les facteurs qui influent sur le bonheur et de pousser à ce qu’ils soient maximisés ou équilibrés (si ils influent différent selon les groupes/personnes)

Faire des politiques avec des buts abstraits, des objectifs qu’on ne peut mesurer, comment savoir si la méthode est la bonne, la meilleure ou tout simplement pour savoir si la politique est préférable à l’absence de politique ?

Il faut rappeler qu’une politique reste une entreprise économie, consommant des ressources évincées de toute autre utilisation, nécessitant du travail ; des couts certains pour des avantages incertains, sans compter les externalités possibles et inimaginables à un niveau systémique…

ouais, j’ai pas de solution concrètes

Euh non. Ce sont des conclusions bien hâtives…

L’optimisation économique n’a pas de raison d’aboutir à ce qu’on se sente inutile, ni diminuer le bonheur. Mais peut-être considères-tu qu’on se sentait plus utile au moyen-age?

On n’avait pas la même notion d’économie en tête, cependant tu as raison, mais pour d’autres raison : on peut imaginer faire des choix économiques, non pas pour économiser son travail, mais pour économiser (maximiser) son bonheur. On le fait même régulièrement, je suis passé à côté ^^

De plus, tout le monde est-il malheureux lorsqu’il ne se rend pas utile ?

J’imagine qu’il y a un paquet d’études sur le sujet, mais intuitivement, oui.

Donc le bonheur ne serait qu’un shoot de dopamine dans le cerveau ?

Oui (enfin, peut être pas dopamine), mais… dans ce cas il ne durerait pas très longtemps

Ce bonheur, c’est plus proche d’un bonheur insoutenable d’Ira Levin ou le meilleur des mondes…



Ce qui fait qu’on ne peut s’en servir pour définir une utilité collective.

Bah là je ne suis pas d’accord, d’une part parce que nous nous ressemblons tous, d’autres part parce que je pense que nous sommes une espèce qui vie en société et qui aime ça. Je dirait que notre génétique nous aiderai à définir un bonheur collectif et nous avons atteint cette génétique par une suite d’évolution logique qui a élagué ceux qui ne percevaient pas comme la masse. Mais faudrait que je réfléchisse plus sur le sujet, j’ai pas encore publié <img data-src=" />


Le 29/06/2014 à 16h 29







Ph11 a écrit :



Je n’ai pas dit le contraire.

Dans son fondement, la théorie du chaos est déterministe, tu crois que j’ignore cela ?





Bof, non…

Un bonheur national existe-t-il ? Quelles sont les propriétés du bonheur ? Sont-elles immuables ? Qu’est-ce que la nation ?

Ce sont des questions très floues, assez controversées et qui sont plus du domaine de la métaphysique que de la science.





Bah en fait c’est de plus en plus à la mode la question du bonheur. Il commence à y avoir quelques consensus dessus (sur certains points, comme la santé par exemple). Par contre c’est quasi sûr que la maximisation de l’économie n’est pas un moyen ultime pour atteindre un bonheur collectif (en gros, une maximisation de l’économie reviendrait à réduire notre utilité dans nos sociétés, et on remarque que se sentant inutile, l’être humain est moins heureux. En simplifiant).

Science et bonheur ne sont pas incompatibles, les drogues récréatives ont des mécanismes connus (pas toute), et d’un point de vue biologique ont commence à comprendre le phénomène dans sa globalité. J’ai fais pas mal de science des systèmes complexe pour penser comme cela, même si ce n’était pas appliqué au bonheur.

Je ne pense pas qu’on puisse tirer des propriétés du bonheur, il s’agit d’un phénomène complexe qu’on ne peut appréhender avec des notions cartésiennes.


Le 29/06/2014 à 15h 11







Tkop a écrit :



Ce n’est pas vrai, le trading haute fréquence à des utilités: ca permet aux brokers de réduire leur risque d’inventaire et donc de proposer des spreads plus petits, et le trading haute fréquence sur les opportunité d’arbitrage permet d’augmenter la liquidité des marchés.

Ce qui est dangereux dans le trading haute fréquence c’est la manipulation des marchés, c’est à dire quand un grand nombre d’ordres sont passés puis annulés.

Ce serait bien de pas tout mélanger dans le mème panier.





Seulement tu as un problème d’égalité du fait de la vitesse de la lumière qui est finie, ce qui pousse à la manipulation. Je vois bien l’intérêt de faire du trading rapide pour certains marchés, seulement je ne vois pas l’intérêt qu’il soit aussi rapide. Je pense qu’on pourrait très bien mettre un seuil minimum et avoir à 99% les mêmes risques. A chaque fois que je parle à des quant ou des traders de marché, ils ont franchement du mal à développer l’argument très très loin sur l’intérêt du haute fréquence, du moins le gain par rapport au risque total sur le marché. D’un point de vue théorique, il n’y a pas de moyen de stabiliser un marché avec des algorithmes aussi rapide (il y a bien quelques hurluberlues qui disent que c’est possible avec des ordi quantique tout ça, à voir), donc c’est vraiment aller chercher jusqu’au bout la merde. (point de vue perso, mais je suis près à changer d’avis).







Ph11 a écrit :



Que sais-tu de la causalité dans une réalité chaotique ? L’effet papillon, tu connais ? Les cygnes noirs, tu connais ?

(…)

Qu’est-ce qu’une utilité collective ? Comment quantifies-tu cette utilité ? Et qui va établir cette utilité ?

Imagine qu’une commission ait interdit les recherches sur le radium, le train, l’automobile…





La théorie du chaos ne renie pas le principe de causalité. L’effet papillon ne dis pas qu’un papillon suffit à produire une tornade, contrairement à ce que dit la vidéo (il dit qu’un papillon peut le faire, autant que l’ensemble des papillons à côté de lui, et que le système devient si complexe qu’il n’est pas possible de le prédire dans un temps raisonnable). Les cygnes noirs c’est encore autre chose, ce sont justes des évènements à faible criticité qui se produisent, ayant un lourd impact (gravité).



L’utilité collective serait celle qui maximise le bonheur national brut? <img data-src=" />

Dommage que cela ne soit pas quantifiable.


Le 29/06/2014 à 14h 51







jamesdu75 a écrit :



Et surtout qu’une fois la glace fondu tu dois forcement avoir un congélo a porté de main.



Electricité congélo + Electricité du ventilo + un renouvellement (disons tt les 3 heures) = Beaucoup d’electricité consommé, les 200 € d’une “vraie” clim sont vite rentabilisé.



(..)





Pour le coup, d’un point de vue énergétique, c’est assez efficace (tout autant qu’une climatisation), mais : c’est super galère et ça augmente l’humidité de l’air. Or l’humidité de l’air modifie la température ressentie, et dans le mauvais sens, donc c’est contre productif.


Le 29/06/2014 à 08h 20

Le climatiseur c’est une grosse connerie, il faudrait 16kg de glace pour faire baisser de 8 degrés une pièce de 20m2 (il triche en mettant le thermo devant la sortie d’air frais). Sans compter la chaleur entrant de l’extérieur..

Le 27/06/2014 à 12h 32







Cacao a écrit :



Faux.

Le tout premier iPhone à défaut d’être véloce était déjà très ergonomique et toutes ses applis fonctionnaient déjà à merveille.

Les toutes premières versions d’android étaient certes très peu fournies en applis mais il a suffit d’une seule année pour rattraper une grande partie du retard et avec des applis qui fonctionnaient déjà très bien également.



Inutile de vouloir défendre l’indéfendable. Je suis moi même développeur sur environnement Windows et pourtant, force est de constater que là, ils ont l’air de galérer comme pas possible avec leur wp. Je détaillerai pas mais je pense que l’architecture a beaucoup de lacunes pour les développeurs. De la sécurité oui (raison invoquée par MS lui-même), mais là, c’est juste too much et les applis ne peuvent donc pas suivre avec autant de contraintes.





Avant ICS, Android était vraiment horrible quand même niveau fonctionnalités et ergonomie. Il fallait rooter le téléphone pour avoir certains trucs de base (FDE par exemple, Battery Saver, Multitache).

Pareil sur iOS, il a fallut attendre la troisième itération majeure pour avoir le copier/coller tout de même. C’était franchement horrible à utiliser pour certains trucs (pas de notifications avant un bon paquet d’itérations).


Le 27/06/2014 à 08h 06







Edtech a écrit :



Tant que l’application ne sera pas universelle, je pense que ça ne sera pas le cas. Et elle ne sera pas universelle tant qu’il supporteront WP8.0… Font juste chier… C’est très simple de créer une universelle si une version Windows existe (dans l’autre sens c’est beaucoup plus compliqué !).



Pour info, le symbole “PC/Téléphone” dans le store ne veut pas dire que l’application est universelle, mais qu’elle existe sous le même nom et par le même éditeur pour Windows et Windows Phone. C’est un peu trompeur !





Cela veut dire qu’elle partage les données sauvegardées sur le cloud (mots de passes, préférences, progression si c’est un jeu, etc.).


Le 26/06/2014 à 14h 50







mononokehime a écrit :



Avec nos smartphone blindé de capteur effectivement l’idée est bien trouvé ! reste plus qu’a envoyé l’image du PC sur smartphone pour jouer a HL² en VR :)





C’est déjà possible, mais la qualité n’est pas tip-top. <img data-src=" />


Le 26/06/2014 à 14h 43







Fart`InDa’Fridge a écrit :



Mais y’a AUCUN skill dans diablo ‘tin, on en a parlé plus loin dans le topic.

Un ARPG c’est du bashing, de la compréhension de mécanique qui donne suite à des applications au travers du stuff (le theorycrafting quoi).

Y’a pas plus de difficulté en HC qu’en SC tout simplement parce que les gens ne cherchent pas à avoir l’équilibre qu’il faut entre dégât et défense; les gens vont naturellement privilégier la défense au détriment du reste (que ça soit les dégâts comme la CDR), tout ça pour justement rendre le jeu plus simple, pour que ça soit brainless. Et la conséquence (grave je trouve dans un jeu comme diablo), c’est que tout le jeu devient lent. C’est long de buter les mobs, y’a rien d’optimiser.



En soit c’est pas grave que les gens préfèrent jouer d’une manière différente, mais là on dirait un mec qui tient sa raquette par le cordage venant dire à l’autre que c’est plus skill de jouer comme ça, c’est débile putain





Le temps dans diablo III permet de lisser le skill, mais cela a moins d’impact en HC, c’est tout.

Tu peux monter beaucoup plus vite en HC si t’es skillé. La différence entre un joueur skillé et un joueur qui attend le bon stuff avant d’avancer sera plus grande.

Tout dépend de ton end-game. Si c’est d’être full-stuff ou de finir le plus vite possible le T1, T2 ou T3 lvl 70 (ou je ne sais quoi d’autre). Si c’est d’être full-stuff, alors ouais, il suffit d’attendre patiemment, mais autant faire tourner un bot.


Le 26/06/2014 à 13h 24







Fart`InDa’Fridge a écrit :



Oui bon, 150k/150k, t’as rien exploré du jeu, c’est pour ça que tu comprends pas vraiment, c’est rien.





T’as quel age? <img data-src=" />

Moi je joue pour le skill, pas pour avoir la plus grosse.

Chacun son style.


Le 26/06/2014 à 13h 20







Fart`InDa’Fridge a écrit :



Va les voir jouer, ou parle leur, c’est hilarant.

Et je trouve hilarant de parler de skill pour le HC de D3 quand ce n’est juste qu’un stack grotesque de défense en tuant l’offensif. Le but de D3, c’est d’avoir un stuff équilibré. Partir en glass canon est autant débile que partir en tank.







Bah clairement t’es une peureuse ^^, je joue avec 150KDPS, 150K PV avec un WD en Torment 1 car en dessous je me fais chier. Il y a bien 2-3 monstres qui peuvent me OS, mais j’apprends à les anticiper et les esquives. Je joue que en coop.

Faire du pur tank et jouer dans les niveau inférieur de difficulté pour ne pas mourir c’est vraiment barbant. Je pense pas que beaucoup d’hardcoreux font ça (autant jouer en normal dans ce cas).

Pour moi le hardcore c’est savoir timer tout ses CD et gérer ses ressources au mieux pour esquiver la mort à chaque instant. Si ma vie ne descend pas d’un copec, je monte la difficulté.

Du coup j’ai perdu de nombreux perso en HC, mais ça vaut le coup.


Le 26/06/2014 à 10h 07







Vanilys a écrit :



(…)




  • Pour un jeu tel que Diablo, le skill est quasiment inexistant (contrairement à d’autres jeux). Le temps de jeu ne va pas influencer vraiment ton skill, car celui-ci n’a que très peu d’importance par rapport au stuff - et donc au temps de jeu - puisque tu n’auras ce stuff qui tombe aléatoirement qu’au bout d’un certain temps.



    (…)



    Encore une fois, dans Diablo, ce qui compte le plus sont :

  • Le temps de jeu

  • La chance







    C’est vrai. Sauf pour le mode Hardcore.

    En hardcore ton temps de jeu influe ton skill.

    C’est par exemple assez rare de commencer ton premier perso D3 Hardcore et de le monter directement au niveau 60. Du coup, tu recommence à zéro, et la différence avec la dernière fois c’est que ton skill a augmenté.

    En hardcore, quand tu commences à avoir pas mal d’heure de jeu, ton skill augmente franchement. Je peux recommencer un perso hardcore et le monter au niveau 70 (maintenant c’est 70…) assez facilement, preuve que le skill augmente.

    Dans le skill je compte aussi réfléchir à la meilleure build pour ne pas mourir. Pour moi cela fait aussi partie d’un bon joueur hardcore. Il y a plein de build “normales” hyper dangereuses pour des persos hardcore, et faut apprendre a équilibrer son build pour éviter de se faire piéger.


Le 24/06/2014 à 12h 54







Chloroplaste a écrit :



Donc avec un NAS + backup manuel stocké à 25 Km de chez moi dans la famille les 2 seuls SPOF restants sont la chute d’un astéroïde et la bombe nucléaire.





Oui.



Après y’a de délais entre le backup manuel et son cout (déplacement et maintenance).


Le 24/06/2014 à 10h 10







Chloroplaste a écrit :



Oui c’est vrai vu sous cet angle, question bête en fait… <img data-src=" />





Un spof ? What’s that ? (sûrement une question de béotien là encore).





En informatique un SPOF = Single Point of Failure.

En gros, t’as beau avoir tout bien fait, qu’un seul événement, pas si improbable, peut tout réduire en cendre.

Statistiquement parlant, un cambriolage, un incendie (ou une innondation selon), c’est pas improbable du tout. Du coup, si l’intégrité de tes données est conditionnée par l’absence de ces facteurs, il s’agit d’un spof. Tu peux mettre un NAS en RAID15 avec un chiffrement AES 512 bits, si ça crame, tu pourras rien y faire. Sachant que le risque d’incendie domestique en France c’est environ 0.1% (grossomerdo), je ne ferai pas le fier de n’avoir tout que sur un NAS. (Un claquage de disque dur pas pro ça doit être dans les 1%/an je crois)


Le 24/06/2014 à 08h 14







Chloroplaste a écrit :



Moi avec mes 100Ko/s en pointe en upload, ce n’est pas trop envisageable.

D’ailleurs question:

Pour un faire un backup régulier d’un NAS 3To vers un disque dur externe, quel type de logiciel utiliser afin de ne pas à repartir de 0 à chaque nouveau backup ?

Y a-t-il des outils syno intégrés ?





Tu dis “Ne pas remplacer” pour les XX autres objets du dossier <img data-src=" />



Anna Lefeuk a écrit :



Si l’argent n’est pas un souci, le NAS at homec’est le mieux.

Tu as des incendies et tu te fais cambrioler toutes les semaines?





Nan, mais le jour où ça t’arrive…

Moi c’est toute ma vie qu’il y a sur mon NAS xD

Aujourd’hui les photos, les vidéos, les documents, tout est numérique; on peut pas se permettre d’avoir un spof.


Le 24/06/2014 à 06h 41







Chloroplaste a écrit :



Sans parler de NAS répliqué, un simple backup sur disque externe mis à jour tous les 3 à 6 mois et conservé dans un autre lieu est suffisant.

Le cloud est vraiment intéressant mais quand il s’agit de stocker des vidéos, et vu le débit moyen en France, la solution locale reste plus adaptée.



Après pour tout ce qui est fichier bureautique, la problématique est différente.





6 mois c’est quand même risqué. Moi je backup mon nas sur crashplan, illimité, versionning et chiffrement 448bit. J’ai la fibre, donc ça a pris que quelques jours pour upload, mais tu peux leur envoyer un DD externe pour la première synchro.


Le 23/06/2014 à 13h 28







Simon C. [WG a écrit :



]Moi je vois cette loi comme une diminution du pouvoir d’achat…





Rien ne se perd, rien ne se créé, tout se transforme. –Lavoisier



Ce principe s’applique aussi en économie. Rien n’est gratuit.


Le 23/06/2014 à 10h 15







qui.dominatur a écrit :



Quelles sont les sources 4K aujourd’hui et surtout, quel type d’abonnement faut-il, théoriquement, pour en profiter ?



Je pose la question parce que l’on voit un maximum de pub en ce sens mais je ne connais aucune chaine qui diffuse en 4K, je n’ai pas souvenir que les Blu-ray soient en 4K et s’il l’on peut trouver du 4K en streaming, pour avoir essayé, il faut une connexion qui tient la route… Et encore, quelle offre légale à cette qualité à son catalogue ? Netflix il me semble mais pas encore dispo en France.



Merci,





Ce n’est pas tant la source l’intérêt, mais plus le côté agnostique par rapport à la source. Avec une TV 4K, que le contenu soit du 480p, du 720p ou du 1080p, l’upscale sera toujours propre puisque les défauts seront imperceptibles.



Ici Nvidia privilégie le contraste par rapport à la colorimétrie, ce qui donne souvent de meilleurs résultats pour les films et les jeux, mais moins pour les photos. De toute façon pour les films et les photos le 30Hz suffit. C’est donc ici une technique prévue surtout pour les jeux. <img data-src=" />


Le 23/06/2014 à 09h 54







atomusk a écrit :



Autant ça n’apporter pas grand chose à la question, vu que si je comprend bien ça sera le même fonctionnement que la chromecast (donc même limitations en général), si ça peut permettre d’augmenter le nombre d’appli qui supportent le protocole c’est une très bonne nouvelle <img data-src=" />





Chromecast c’est super fermé. Par exemple ils empêchent les applis Windows Phone d’accéder au device


Le 22/06/2014 à 14h 50







Tim-timmy a écrit :



(…)

et donc ton propos, c’est que tu sais pas, mais que par défaut c’est mal. Les manipulations génétiques on en fait depuis des millénaires au fait, hein :p

Donc ouep, débat assez stérile avec des gens enfermés dans leurs arguments comme dans un bunker …





On en fait depuis des millénaires, à la seule différence près que cela se fait via des mécanismes a priori connus. A l’heure actuelle, lorsque l’on fabrique un OGM, sa méthode de fabrication implique des mécanismes encore inconnus ou mal-connus. Ce qui fait que l’on pense avoir modifié un gène, mais si cela se trouve on a modifié autre chose dans la cellule que le gène. Encore aujourd’hui on découvre des choses fabuleuses sur l’épigénétique, et il serait stupide de croire qu’en tripatouillant dans une cellule on ne modifie rien de ce côté.

A l’heure actuelle on fait l’apprenti sorcier, et ça à l’air de des fois bien marcher, mais dans le fond on ne sait pas exactement ce que l’on a modifié.

Alors, faire des études, ouais. Faire pousser des champs pour tester le truc, ouais. Mais forcer les fermiers à en produire en masse alors qu’au long terme le bénéfice n’est pas si évident : c’est un peu con.


Le 18/06/2014 à 09h 20







Drepanocytose a écrit :



Mouais.

Faut voir l’état de leurs stocks et leurs prévisions pour les Surface 3.



Ca me semble être un peu timide comme baisse de prix, histoire de tâter le marché pour voir ce qu’on fait ensuite….

Attendons, attendons….





Disons que la Surface 3 ce n’est pas le même form factor, si on vuet une tablette 10”, c’est toujours la Surface 2 qui sera là.


Le 16/06/2014 à 15h 00







Tim-timmy a écrit :



au bout d’un moment, ça sert tant de débit ? (sauf si ça revient à admettre le débit 4G annoncé est foireux et jamais atteint en réalité, ni même satisfaisant .. mais ça semble quand même pas mal tarter dans une bonne partie des cas) J’ai du mal à voir l’intérêt (un peu comme la fibre à 1Gb face à celle à 200Mb), si ce n’est relancer une course à la plus grosse…





La LTE-a a l’avantage d’assurer un gros débit, même à plus de 100km/h. En gros dans le train ou la voiture, tu pourras avoir un débit de 100Mbps. A l’heure actuelle c’est 10Mbps théorique.


Le 14/06/2014 à 14h 25







Tim-timmy a écrit :



Le secteur va si mal que la plus faible des progressions est de +22% en 6 mois :\ Salauds de free qui tuent les télécoms français..



(le cac40 a fait genre +6% sur la même période, les licenciements vont devenir indispensables)





Orange a des activités sur 32 pays en B2B et B2C. Le secteur du B2C en France peut aller mal, et l’entreprise compenser avec ses autres activités..


Le 13/06/2014 à 12h 11







Xaelias a écrit :



Y’a pas de spoliation possible. Comme il le dit lui-même, c’est un marché pour ainsi dire inexistant. Quant aux licenciements, ses employésiront ssimplementchez la concurrence si cçadevait arriver <img data-src=" />





+1 Le but pour lui c’est de créer le marché qui est inexistant aujourd’hui. Une des solutions, c’est de créer des concurrents. Tesla jouera sur son image de marque et son effet d’expérience.


Le 13/06/2014 à 10h 13







Winderly a écrit :



Et pour les ondes radio (RTL et les autres) ?





Surtout les ondes de la TV. Beaucoup plus puissantes, sur des longueurs d’ondes voisines, et pourtant présentes depuis des décennies. Le plus bel exemple est notre chère tour Eiffel, qui émet sacrément plus qu’une antenne relais.


Le 12/06/2014 à 13h 11







NonMais a écrit :



Ce qui est regrettable c’est qu’il n’y ait pas plus de développeuses/ game designer femmes, créatrices, etc…

Après que dans un jeu particulier les héros principaux ou mêmes les avatars soient des hommes… on s’en fout un peu non? Là où c’est regrettable c’est qu’il n’y ait pas le pendant où tu aurais une franchise plutôt basée sur des héros femmes (bon à part tomb rider, c’est tout de même rare).



De mon humble avis, faut plutôt voir le truc de manière générale plutôt qu’un ou deux jeux particuliers. Qu’un jeu soit 100% mâle on s’en fout si à côté il y en a orientés femelles. Enfin je trouve le procès/le combat un peu à côté de la plaque.





Ici, c’est surtout qu’ils insistent sur le co-op, donc a priori, pas un héro particulier. Du coup l’absence de choix sur le sexe du personnage joué parait difficilement justifiable dans la DA (la preuve ils ne le justifient pas de ce côté). (pour AC en tout cas).