votre avatar

brazomyna

est avec nous depuis le 7 octobre 2011 ❤️

7015 commentaires

Le 19/09/2012 à 08h 16







Sebdraluorg a écrit :



L’argument classique, mais naif !

A force de ‘là pas besoin de perf on fait du haut niveau, avec un max de xml’ on fini par avoir des environements qui sur-consomment pour rien !





Le “naïf ” (pour ne pas dire plus), c’est celui qui vit dans un monde où les ressources sont infinies (temps de développement, temps d’apprentissage, temps de test, temps de maintenance) et donc où la notion de coût n’a plus vraiment lieu d’être.



Le naïf c’est également celui qui confond vertu d’une solution technique en tant que telle et pertinence de ladite solution appliquée à tel ou tel exemple concret.



Après, je ne vais pas redire ce que j’ai déjà dit dans les comms il y a quelques jours ; mais sache qu’un couteau n’est pas mauvais en soi parce que potentiellement quelques uns peuvent être amenés à s’en servir pour tuer, et que ça ne constitue pas une raison suffisante pour les bannir de la surface du globe.



Le 18/09/2012 à 11h 02







sylware a écrit :



tiens, on commence a se rendre compte des betises faites…..





Lesquelles ?



Proposer des langages de plus haut niveau (sans interdire pour autant ceux de plus bas niveau) permettant de gagner en qualité, maintenabilité, évolutivité, efficience et réutilisation de l’existant quand la recherche de la perf ultime n’est pas un impératif fort pour les besoins du projet ?



Bref, tu as décidé de prendre la position de l’ayatollah du bas niveau qui croit qu’il n’y a qu’une solution parfaite pour tous les besoins. <img data-src=" />


Le 18/09/2012 à 07h 03



Mais si l’écosystème attire les développeurs et les clients, il trace des lignes dans le sable et impose ses propres règles. C’est notamment le cas des langages utilisés pour la création des applications. Ainsi, plus l’attraction de l’App Store s’exerce sur les développeurs, plus l’Objective-C croit en popularité.





Il serait pertinent de ne pas oublier de mentionner que restreindre ainsi les appStores à certaines technologies précises n’est pas non plus une fatalité ou une limitation technique, mais bel et bien un choix stratégique des acteurs. Cela afin d’enfermer les développeurs dans tel ou tel écosystème (ou de populariser son petit langage maison, ce qui revient grosso modo au même).



C’est aussi une pratique qu’Apple a introduite dans le monde de l’IT avec le succès de son iPhone. Et autant il est évident que ça leur est profitable, autant je suis beaucoup, beaucoup moins sûr que ça le soit pour le client final, notamment à long terme.


Le 17/09/2012 à 13h 25







olivier4 a écrit :



le monde.fr: c’est subventionné par le ministere de la culture je le rappelle.





Source ?


Le 17/09/2012 à 11h 13







_fefe_ a écrit :



À qui appartient la presse quotidienne traditionnelle ?

Je me demande bien pourquoi des industriels investissent dans ce secteur.





Un début de réponse a été donné par Xaviel Niel (patron de Free et actionnaire du Monde) il y a pas longtemps, en feignant un lapsus quand il a dit qu’il “subventionnait, pardon investissait” dans Le Monde.



La presse papier vit ses dernières heures, c’est un fait. Le tout est de savoir pour eux comment réussir à faire la transition dans de bonnes conditions. Certains l’ont fait, dont Le Monde et slate.fr



Mais manifestement, nombre d’entre eux n’ont même pas encore compris que la transition était inéluctable. C’est mal barré (et tanpis ?) pour eux.


Le 17/09/2012 à 11h 04







jinge a écrit :



Ca arrive de passer 5km/h au dessus de la limite.





Pareil.





Bon, moi c’est plutôt 30 km/h, mais ça reste proportionnel au nombre de chevaux, hein <img data-src=" />


Le 14/09/2012 à 22h 25







paul161 a écrit :



Sinon il y a… les APU d’AMD !





<img data-src=" /> trop gros, passera pas.





Si AMD faisait des CPU et des GPU, depuis le temps, ça se saurait <img data-src=" />


Le 14/09/2012 à 13h 45







-Stephane- a écrit :



à partir du moment ou on admet qu’un ultrabook n’est pas un PC de gamer l’argument d’Intel est parfaitement valable.



Personnellement je serais client d’un ultrabook puissant, sans carte graphique dédiée, et disposant d’une meilleure autonomie.





+1, mais surtout pour le silence que ça apporterait (et les emmerde d’un optimus qui déconne à moitié sous linux)


Le 14/09/2012 à 07h 48







ldesnogu a écrit :



si une app dépend fortement du CPU, hors librairie de l’OS, l’émulateur aura de gros soucis de performance





Ou pas si le CPU hôte est largement plus puissant que celui qu’il émule.



Emuler une SNES n’est pas un problème pour un Core i7. Emuler une PS3 un peu plus.


Le 13/09/2012 à 18h 11







youtpout978 a écrit :



le faite qu’il soit pas typé (après certain le préfère comme ça)





C’est pas une question de ‘préférence’, mais ça induit l’impossibilité d’optimiser le code machine autant que dans un langage fortement typé. Donc un langage comme JS ne pourra JAMAIS être aussi ‘optimisable’ qu’un Java ou un C++ par exemple. L’autre aspect c’est que ça donne énormément de liberté. Et ça c’est à double tranchant: c’est le risque qu’un développeur qui n’est pas carré fasse n’importe quoi, mais pour celui qui a de la bouteille (et qui est notamment passé par les langages fortement typés ci-avant), c’est juste un bonheur et une productivité incomparables.







que ça soit pas un langage objet (même si je crois que des frameworks permettent de faire ça)

C’est exactement le contraire: c’est bien plus un langage objet qu’un C++ étant donné que TOUT est objet, même les fonctions, les prototypes, …





une vrai et bonne documentation



C’est un langage, il y a une syntaxe. Je vois pas où tu veux de la documentation. Si tu parles des libs tierces, tu confonds le langage JS et l’écosystème dans lequel il évolue la plupart du temps, à savoir dans un navigateur (DOM et cie). Dans ce cas là, jette un oeil à Node.js pour comprendre la différence (JS d’un côté, libs et API tierces de l’autre).







un débogueur efficace, heureusement les différents framework permettent d’en faciliter l’usage.



Idem, le JS est plus souple et offre plus de potentiel pour le déboguage, avec des choses évaluables à la volée, de l’injection de code, de la réflectivité, etc…



En JS, avec une simple boucle de 10 lignes, tu peux encapsuler d’un coup d’un seul en runtime l’ensemble des méthodes d’un classe pour logger chaque appel/résultat par exemple. Va faire ça en C++.



Le 13/09/2012 à 16h 12







methos1435 a écrit :



Ca sera peut être vrai pour afficher deux trois trucs, dès qu’on à besoin de toucher un peu au matos, quel que soit le langage utilisé, si il n’y a pas volonté de s’ouvrir et de faciliter le travail des dev, ca sera voué à l’échec.





Tu n’as visiblement pas compris de quoi on parle.



On ne parle pas de remplacer tous langages actuels par du JS dans tous les besoins. Le but n’est ici que d’avoir une solution pour les besoins les plus ‘high level’ (mais qui constituent quand même l’immense majorité des développements).



Ca ne fait que reprendre un principe éculé: avec différentes couches successives d’abstractions. De la même façon qu’openGL (a vocation à) t’abstrait le matos quand tu veux faire de la 3D, tu as des moyens de proposer des API au niveau du javascript avec une machinerie faite en C derrière (ou ce que tu veux d’autre).



Bien évidemment qu’on ne va pas faire des drivers en JS. <img data-src=" />


Le 13/09/2012 à 16h 01







methos1435 a écrit :



Perso je trouve ça brouillon le javascripot. J’accroche pas, ou alors à petite dose. Je me vois pas développer du gros code avec.





Le javascript est une vraie super méga catastrophe pour un développeur débutant qui fera absolument n’importe quoi avec.



Le javascript est un délice pour qui a déjà pas mal de bouteille en développement car il t’offre une liberté de faire des choses très rapidement sans que ce soit méga verbeux pour un autre langage, typiquement quand il est fortement typé.





Le langage ne fait pas tout. Si il n’existe aucune API pour faire le lien avec le matériel, ça ne change rien.



C’est u nnon sens ce que tu dis: si tu fais du C ou du C++ sans un driver, tu as exactement la même problématique. La nature et les caractéristiques intrinsèques du langage n’entrent pas en ligne de compte pour savoir si tel langage est ‘vertueux’ ou pas.



Le 13/09/2012 à 15h 37







methos1435 a écrit :



Ca revient à mon commentaire initiale: le HTML n’a pas été créé pour ça à la base. On cherche à le détourner pour combler les lacunes du système actuel





Le HTML, d’accord: vouloir faire des applications avec me semble aussi pertinent que vouloir faire un Super PI en flash.



Par contre le Javascript n’est rien d’autre qu’un langage, ce qui reste très générique. Et de par sa popularité, son accessibilité, l’investissement de plusieurs ‘gros’ dedans (google et son v8 en premier), et la productivité qu’il offre pour le développeur, c’est loin d’être une aberration.



Certes, ça reste un langage faiblement typé, et donc ça limite forcément les possibilités en matière d’optimisation des performances (et encore, on est parfois surpris de voir à quel point ça peut dépoter). Mais surtout l’association d’un framework natif bien conçu proposant un binding javascript au dessus peut donner des résultats absolument bluffant d’efficacité sans être pénalisé pour autant au niveau des perfs.



Au passage, Node.js n’est qu’un annonciateur de la tendance lourde qui se trame en sous-main amha.





(rien de réellement viable pour créer du multi plateforme)



Technologiquement parlant, ce n’est pourtant pas ce qu’il manque. tu as des pelletées de frameworks justement conçus pour ça, de Qt jusqu’aux moteux multi-plateforme WP / iOS / Android pour les smartphones.

Le vrai problème de l’interopérabilité, c’est plutôt l’émergence des stores affublés d’une vision ultra restrictives des libertés accordées aux développeurs. (au passage, on peut dire merci à Apple d’avoir ouvert la boite de Pandorre dans laquelle les autres se sont engouffrés puisque le client Michu était déjà ‘formaté’).


Le 13/09/2012 à 11h 09







Jarodd a écrit :



Le débit nécessaire est le double d’une seule chaîne, où la vignette nécessite moins de débit que la grande ?





Bonne question ; à priori, j’aurais tendance à penser que c’est la chaine originale (donc le débit d’une chaine normale), mais il faudrait que je teste.





J’ai mis à jour, je n’ai pas l’impression de pouvoir piloter la TV avec la zapette FB. Soit c’est incompatible, soit j’ai rien compris (ou les deux c’est possible).



Il faut généralement activer la chose des deux côtés:




  • l’activer dans les paramètres de la freebox

  • ET l’activer dans les paramètres de ta TV.


Le 12/09/2012 à 06h 37







FacePlouc a écrit :



Euh, en sacrifiant un quart de l’écran, et en se farcissant les flèches pour atteindre l’autre chaine, en perdant tout en cas de mauvais appui





C’te mauvaise foi <img data-src=" />







FacePlouc a écrit :



Je dis pas ça pour raller de manière systématique





C’est pourtant exactement l’image que tu donnes en étant aussi peu objectif.


Le 11/09/2012 à 18h 41







scientifik_u a écrit :



Enfin un vrai PiP, c’est un peu la fonctionnalité canon qui était censé exister à sa sortie





Et qui existait dès sa sortie.



La liste des chaines en surimpression (celle après un appuis sur haut ou bas) affiche une deuxième chaine en live depuis le départ.


Le 11/09/2012 à 17h 09







tiranor a écrit :



A défaut de VPN, je me contente de Jdownloader.





Un simple proxy de base, comme il en existe des milliers gratuits sur le net, suffit pour retrouver son débit sur YouTube. Pas besoin de VPN pour ça.



Et côté client, avec Firefox par exemple, il existe des petits plugin permet d’afficher un bouton pour passer d’une connexion avec/sans proxy en un clic, voir de déterminer des règles par url pour que tout soit automatique (genre (youtube) = proxy, le reste en connexion directe).


Le 13/09/2012 à 11h 07

:pop corn:

Le 13/09/2012 à 10h 53







Aphelion a écrit :



Ou c’est quelque chose de très agréable sur Mac.





Soit 670€ de téléphone + 1000€ à 2500€ pour adapter l’ordi au téléphone <img data-src=" />


Le 12/09/2012 à 19h 59







the true mask a écrit :



Bah PSA ariive à fourger beaucoup plus de bagnoles que BMW et pourtant il y en a un des deux qui s’en sort beaucoup mieux que l’autre <img data-src=" />





La différence c’est que j’ai pas une Peugeot pour le prix d’une BMW sans options 6 mois plus tard <img data-src=" />



Mais si la marge d’Apple t’aide à dormir la nuit…


Le 12/09/2012 à 19h 34







FunnyD a écrit :



Sur quoi à bossé la R&D d’Apple ces derniers mois???





Ils ont cherché un moyen de breveter la couleur ‘iBlanc’ ?

<img data-src=" />


Le 12/09/2012 à 19h 32







olleN a écrit :



rdv dans 10 ans les gars, vous y arriverez peut-être avec votre “omg c’est la fin de l’iPhone” <img data-src=" />





T’as un train de retard. Ca fait un certain temps que Samsung vend plus de camions d’Android qu’Apple, hein <img data-src=" />


Le 12/09/2012 à 18h 54

Une petite pensée pour tous ceux qui ne manquaient pas de railler le galaxy S3 en disant qu’il ne fallait pas le comparer à l’iPhone 4 car il était trop vieux et que son vrai concurrent ce serait l’iPhone 5.



Ben c’est tout vu: le nouveau reste en dessous de l’iPhone 5 plusieurs mois après la sortie du S3.

Le 13/09/2012 à 10h 52







ActionFighter a écrit :



En tous cas, il va y avoir du procès dans l’air, c’est carrément copier sur le Galaxy S2 <img data-src=" />





Et la taille de l’écran s’inspire du S3.



Ca va saigner <img data-src=" />


Le 13/09/2012 à 10h 48

Je vais attendre qu’il y ait un port SD, une home avec autre chose que des widgets statiques et une interopérabilité avec l’écosystème que j’ai choisi (pas celui qu’on voudrait m’imposer alors qu’il ne correspond pas à mon utilisation). Bref, quelques petites choses à minima qu’on est en droit d’attendre d’un smartphone du 21ème siècle.







Bref … je vais attendre …



… attendre …



… attendre…



<img data-src=" />

Le 12/09/2012 à 16h 36

… 5 heures avant pci.

Le 12/09/2012 à 16h 35

Une exclu qui n’en est pas une, universfreebox les ayant publiées aussi

Le 12/09/2012 à 16h 35

Une exclu qui n’en est pas une, universfreebox les ayant publiées aussi

Le 12/09/2012 à 12h 31







ldesnogu a écrit :



Donc oui desole on se tape du temps passe par les dev, ce qui compte c’est ce que les utilisateurs utilisent, ben ouai ca fait ridicule en l’ecrivant hein ?





Non, ce qui est ridicule, c’est de penser qu’on vit dans un monde infini, celui où les développeurs auront un temps infini pour faires toutes les optimisations possibles et ne s’arrêteront que lorsqu’ils seront sûrs d’avoir mis en oeuvre l’ensemblre des optimisations possibles et ne seront plus limités que par la nature du langage choisi qui ne leur permettra plus d’aller plus loin.





Et OMG les utilisateurs utilisent des CODEC. Dingue hein ? <img data-src=" />



Et pour ça, un lange bas niveau est PARFAIT pour ça. Et (sauf ton postulat dichotomique qui t’amène à croire que si j’argumente en faveur des langages plus haut niveau, je suis forcément contre le bas niveau partout) je n’ai jamais remis en question cet état de fait.

Et OMG, combien de développeurs développent des codecs ? 1% ?





Oui j’extrapole, mais des arbres binaires, y’en a partout.



Comme plein d’autres concepts où pour certains la différence sera nettement moins flagrante





C’est la que tu passes du mode temps de CPU effectue dans le monde a temps de dev



Je ne passe par rien du tout, je dis juste que les perfs intrinsèques dépendent très souvent moins de la qualité de l’implémentation que du langage utilisé, que ça se réduit encore comme peau de chagrin avec le temps et qu’à partir de là, dire que le managé est une connerie universelle est un non sens ridicule.





Maintenant ce que tu dis sur la finance m’interpelle. Vous utilisez vraiment du Java en salle de marche ? Je pensais qu’il y avait des contraintes tres fortes de temps reel la-dedans. Java et .net sont bons en temps reel ?



On a même du VB6 <img data-src=" /> (mais pas pour tout, heureusement <img data-src=" />). Mais d’une façon un peu plus sérieuse, le .net managé est très représenté dans l’IT orientée finance


Le 12/09/2012 à 12h 15







-DTL- a écrit :



Un arbre binaire c’est une structure de donné courante… des tests sur ce genre de structure est donc relativement représentatif de ce que peut faire un programme.





Non, il est représentatif de ce que fait un programme quand il passe son temps à instancier un arbre à la fois énorme et de la façon la plus brute possible. Ce qui n’est pas représentatif d’un programme moyen et au-delà des tâches les plus courantes demandées à un système global.





C’est bien de me sortir le test thread ring sauf que sans surprise les 3 premiers sont des langages de programmation concurrente… soit le test taillé sur mesure pour eux.



Exact, mais mon contre exemple n’avait d’autre but que de montrer que se baser sur un test unique et spécifique est un non sens.





Et non Java ne peut pas être plus rapide que du C/C++ car sa VM est basé dessus



Et à nouveau tu me fais dire des trucs que je n’ai pas dit. <img data-src=" />





Cela ne sera pas forcément le cas dans face à une autre implémentation.



Et donc on arrive à la façon d’utiliser le couteau qui devient plus importante dans la vraie vie que les caractéristiques du couteau en lui-même (qui ont certes une influence, mais toute relative, hors cas extrêmes ou spécifiques).



C’est bien, on avance <img data-src=" />


Le 12/09/2012 à 11h 58







HarmattanBlow a écrit :



Maintenant, tout ce que je sais de toi c’est que visiblement tu ne comprends rien au sujet dont tu parles. Commence par étudier un peu d’asm





Je faisais déjà de l’asm sur moto 68k il y a 20 ans de ça, et je bosse dans un domaine parmi les plus contraints (IT, finance, le genre de domaine où on adôôôre perdre des montagnes de pognon en ayant des outils inadaptés aux contraintes lourdes du business et où quand on paie un consultant 1.2k€.jour c’est parce qu’il est notoirement incompétent).



Une paille, vu que tu vas m’apprendre la vie en étant bien persuadé que tu sais tout mieux que tout le monde <img data-src=" />

Ce sera tout pour moi. Il n’y a rien à retirer de ce genre de non-discussion.


Le 12/09/2012 à 11h 27







HarmattanBlow a écrit :



Non, pas du tout, et de loin. Je parle là en ma qualité de développeur qui bosse essentiellement sur dotnet […] Ton affirmation me fait penser que tu es de ceux qui croient qu’une fois le compilateur JIT passé par là le résultat est le même que celui produit par un code C





Bref tu sais tout sur moi et ça te donne un bel argument … d’autorité <img data-src=" />



Ben je ne peux que te laisser à tes certitudes alors <img data-src=" />


Le 12/09/2012 à 11h 00







ldesnogu a écrit :



Je suis d’accord que le shootout ne montre pas grand-chose, mais de la a dire qu’il n’y a pas de structures de donnees plus ou moins complexes dans les softs que tu utilises tous les jours, la tu t’egares <img data-src=" />





J’ai jamais dit ça. <img data-src=" />





Regarde un peu la complexite des briques de base necessaires a un browser…



Même raisonnement que pour les codecs ou d’autres trucs à calculs très intensifs : que certains besoins spécifiques ne se satisfassent pas de ce type de techno est un évidence sauf pour le kikoolol de 15 ans qui croit que tout est ‘tout noir’ ou ‘tout blanc’ et qu’une solution unique peut se présenter comme la Saint graal pour couvrir tous les besoins.



ça n’en fait pas une généralité pour autant. C’est justement le contraire: ce type de besoin est ultra minoritaire dans la globalité du code qui est écrit chaque jour dans le monde.



Le 12/09/2012 à 10h 57







ldesnogu a écrit :



Je suis en partie d’accord avec toi. Je te laisse choisir un truc qui te semble raisonnable et plutot calculatoire bien sur. Un codec ? <img data-src=" />





Parce que ton ordi à la maison passe ses journées à faire du super PI ?

Parce que 95% des besoins en développement, c’est pour implémenter des codecs ?

<img data-src=" />





Je ne suis pas d’accord ! Chaque langage impose des contraintes qui font que certaines choses ne pourront jamais etre efficaces et donc le surcout deviendra un facteur, pas un cout fixe. L’absence de pointeurs peut etre un tel obstacle.



La plupart des langages (même le VB.Net) ont la notion double de passage par valeur ou par référence, ce qui n’est rien d’autre qu’un pointeur derrière ; la vraie différence se situe essentiellement dans la gestion de la mémoire et la notion de GC.

Et tu confonds ‘ne pourra jamais être plus efficace’ d’un côté (ce qui est vrai) et ‘la différence d’efficacité s’estompe en proportion de la puissance disponible’





Completement d’accord. Mais a un moment il va falloir se poser la question de l’efficacite energetique qui est liee a l’efficacite d’execution.



Elle évolue comme la puissance dispo: en augmentant petit à petit, ce qui rend un surcoût fixe de moins en moins énergivore.


Le 12/09/2012 à 10h 39







-DTL- a écrit :



Par exemple pour le test binary-trees





Et donc ce test est représentatif de ce que fait un ordi en moyenne dans une journée ?



Ou alors, on prend un autre, basé sur les switch de thread (sûrement déjà plus proche de ce qu’un OS moderne fait à longueur de journée):

F# Mono 2.99

C++ GNU g++ 15.63

C GNU gcc 121.65





Et même à ce train là, on a pour le même test des cas d’archi où la version Java est plus rapide que la version C++ et l’inverse sur une autre archi.





Le 12/09/2012 à 10h 28







ldesnogu a écrit :



Mouai mais quand tu veux on fait une comparaison de vitesse entre C et Java/.net.





Commence par me déterminer ce que doit être ton test et de définir un usage ‘moyen’ d’un utilisateur ‘moyen’ et on en reparle. Parce que si c’est pour me comparer un superPI en Javascript vs. assembleur, c’est juste ridicule.



Le fait est que contrairement à ce que disait HarmattanBlow avant, le surcoût n’est par une facteur, mais est proche d’une valeur absolue, qui fait que la proportion diminue au fur et à mesure que les perfs d’un CPU moyen augmente.





Java et les bidules .net sont surement plus safe et on developpe bien plus rapidement avec eux



Ce sont deux réalités indéniables (il y en a d’autres: portabilité, …), et dans le domaine pro une barette de RAM ou un serveur supplémentaire est très souvent beaucoup plus rentable que quelques hommes.jour passés à optimiser où à être moins productif avec un langage moins ‘efficient’.





Mais dire que la difference de perf est de 1% a 5% la c’est n’importe quoi sauf cas particulier <img data-src=" />



Depuis l’avènement de la compilation ‘just in time’ (qui date pas d’hier), la différence de perf est pourtant très faible (bien sûr quand on parle d’un langage fortement typé, sinon on compare des choux et des carottes).





Le principal probleme est que l’immense majorite des developpeurs n’ont strictement plus aucune notion d’architecture CPU et ne savent meme plus ce qu’est un cache ou un pipeline. Du coup ils font n’importe quoi et ce quel que soit le langage.



Et on reparle du couteau mal utilisé. <img data-src=" />


Le 12/09/2012 à 09h 33







HarmattanBlow a écrit :



Il n’y a pas de delta, il y a un facteur multiplicatif. Quand tu écris un code en dotnet aujourd’hui, tu as la puissance qu’avaient les développeurs C il y a quelques années. Quand tu écris un code en php aujourd’hui, tu as la puissance qu’avaient les développeurs dotnet il y a quelques années. Et ce facteur est loin d’être négligeable.





Pour du langage style Java/.net, la différence de perf est de l’ordre de 1% à 5% au pire, hors cas extrêmement spécifiques. Autant dire rien.



Ce n’est pas parce qu’une génération entière de troll est passée par là à propos à l’époque du Java que ça reste vrai aujourd’hui. Mais ça évidemment il faut avoir un certain recul et une certaine pratique pour le comprendre, ce qui est le plus souvent incompatible avec les “je sais tout sur tout mais j’ai jamais rien fait de concret” qui traînent le plus souvent sur les espaces de discussion ‘mainstream’ du net.







-DTL- a écrit :



Il faut tout de même reconnaitre qu’avant personne n’aurait eu l’idée d’écrire des applications en JS/HTML5 pour faire 2-3 effets kikoolol sur le bureau en local





Tu parles d’un cas isolé et extrême pour en faire une généralité. Exactement comme quand certains avancent que Flash c’est de la merde parce que certains s’en servent à mauvais escient. Ou si je dis que les couteaux il faut les interdire parce que certains s’en servent pour tuer.



Le 12/09/2012 à 06h 06

Le coup de la montée en puissance pour palier les langages de plus haut niveau… lol. Le delta de perf pour le comparer au delta d’une generation de cpu. Ca fait très longtemps que ce surcout est négligeable comparé à la puissance disponible.

Pour les webservices, je rigole bien aussi puisque la notion de webservice implique justement un traitement largement déporté du côté des serveurs, or là on parlait du marché ‘grand public’.



Après il ne faut pas me faire dire ce que je n’ai pas dit: l’évolution de l’it doit effectivement s’accompagner d’une evolution de la puissance des cpu. Je dis juste qu’en ce moment on est en plein dans le creux de la vague des besoins cpu pour tout le matos qui se retrouve entre les mains du consommateur final.

Le 11/09/2012 à 18h 21

De toute façon, la débauche de puissance offerte augmente bien trop vite comparé aux besoins de 80% des utilisateurs.



Donc s’ils veulent avoir le moidnre espoir d’inciter à renouveler son matos, la consommation moindre doit être une des rares améliorations qui peut faire sens pour l’acheteur potentiel.



Et perso c’est pas pour me déplaire, moi qui rêve d’un 15 pouces totalement fanless, sans pour autant être une grosse brute de puissance ni un Atom anémique.

Le 10/09/2012 à 23h 01

Pour une vm:code.google.com Google

Le 06/09/2012 à 13h 21







Maxouille-la-fripouille a écrit :



Ah ok! Et t’as des traceurs GPS à conseiller? Ca m’intéresse. <img data-src=" />





Et des batteries qui tiennent un an pour aller avec <img data-src=" />


Le 06/09/2012 à 10h 41

Et mis à part ça, Martin va nous dire que c’est pas du tout free qui a fait bouger les lignes. <img data-src=" />



C’est juste une coïncidence <img data-src=" />

Le 03/09/2012 à 09h 14







chienbleu a écrit :



Ce qui est vraiment dommage de la part d’une aussi grosse entreprise, c’est qu’ils ne prennent pas le risque de proposer leur propre solution. Là, ça ferait une différence pour le consommateur: un produit réellement différent, avec une interface nouvelle.





Regarde de quoi on parle exactement: de coins arrondis, de ‘slide to unlock’, et autres broutilles.



A ce niveau, on pourrait tout autant se retourner contre Apple en montrant qu’il a copié d’autres éléments existant depuis des lustres: une barre en haut de l’écran pour indiquer la batterie, 4 barres pour indiquer la qualité de réception, des icones sur lesquelles on clique, la notion de home page existant depuis au moins windows mobile, etc… etc…



Si vraiment Apple avait des choses majeures à faire valoir, nul doute qu’il s’en serait servi dans les différents procès pour prendre un avantage net. Le simple fait qu’ils n’exposent que des broutilles montre au contraire à quel point on est dans l’esbrouffe.


Le 03/09/2012 à 08h 49

Le retour de bâton va être assez formidale: Samsung a une bonne partie des brevets concernant la LTE qui sera sans aucun doute intégrée au prochain iPhone



C’est l’histoire de “Paf la ptite pomme” <img data-src=" />









incroyal a écrit :



Quand Apple a sorti son iPhone en 2007, ils ont tout chamboulé avec des technologies inimaginables à l’époque et qu’aucun acteur de l’industrie n’a vu venir.





L’innovation, c’était un téléphone sans 3G en 2007 et le premier produit autoproclamé ‘smartphone’ sur lequel on ne pouvait pourtant pas installer un programme tiers <img data-src=" />



Le plus drôle c’est que pas une seule techno n’était nouvelle ; au mieux il ont fait un bon assemblage de trucs déjà existant, parfois depuis plus d’une décennie.







incroyal a écrit :



Qu’ils paient pour ce qu’ils utilisent ou ont utilisé, qu’ils développent leurs propres technos, et personne ne pourra leur en vouloir. En attendant ils n’ont que la monnaie de leur pièce.





Quand ça fait l’objet d’une vraie technologie qui a demandé de vraies recherches et apporte une vraie nouveauté, oui.



Quand c’est pour breveter des coins arrondis, c’est du patent trolling. Ni plu ni moins.



Le 31/08/2012 à 18h 36







manu0086 a écrit :



PCi, le magasine people prêt à tout pour faire de l’audience <img data-src=" />

Les lobotomisés sauce TF1 vont adorer <img data-src=" />





Bref, un site manifestement parfait pour toi, comme nous les confirment tes 5 ans et demi de présence et tes 2700 comms <img data-src=" />



Le 31/08/2012 à 12h 30







PioT a écrit :



Tu peux toujours avoir un abonnement à 29.99. mais tu as probablement voulu avoir la box qui fait tout… Free ne t’as pas forcé à demander la FB révolution.





+1



Sans comtper les appels illimités vers les mobiles, l’inflation qui fait que 38€ aujourd’hui c’est moisn que 30€ il y a quelques années, etc…



Pour le reste, et notamment Youtube, je plussoie. C’est juste une honte de la part de Free. Mais tant que les journaleux n’iront pas chercher un peu plus loin que le bout de leur nez (PCI y compris, cf. mes comms dans la dernière news à ce sujet), on continuera dans le marasme du “ah ben ptet que cayLaFautAGoogle”


Le 31/08/2012 à 11h 05







jiph a écrit :



Ouai ouai, un diagramme fait par les mêmes mec qui prévoint free à 5% en 2015 …





Lol. C’est juste une notion de base en économie, tellement basique que n’importe quel acteur du monde économique la considère comme un postulat.



Mais jiph sait de quoi il retourne, lui qui n’est pas capable de comprendre la différence entre un concept économique et des analyses économiques qui ont vocation à ne pas être parfaite, mais donner des éléments de réflexion et des avis motivés (sinon, c’est qu’on aurait treouvé la martingale pour devenir riche sur les marchés puisqu’on pourrait prédir l’avenir). <img data-src=" />


Le 31/08/2012 à 11h 01







yvesnico a écrit :



Il n’y a pas forcément besoin d’un x86 pour faire ça.

Et avec un chroot, pas besoin de rebooter pour passer d’android a une distrib linux.





J’ai déjà un dual boot ICS/Ubuntu sur une asus transformer, donc tu ne vas pas m’apprendre grand chose, notamment concernant la disponibilité de linux sur d’autres archi. Et si je dis qu’avoir une x86 m’apporterazit un intérêt je sais également pourquoi.



D’autant que la solution que tu avances n’est justement pas une vraie install linux, mais un saupoudrage plus ou moins heureux avec une exécution qui ressemble plus à la philosophie générale d’une pseudo vm dans un VNC qu’autre chose.


Le 31/08/2012 à 10h 56







osiris57 a écrit :



C’est impressionnant comme que c’est devenu commercial ce terme “cloud”, alors que la plupart du temps ca n’a rien a voir …





+1


Le 31/08/2012 à 10h 55







SebGF a écrit :



La raison de ce retard était-elle pour cause de cédéméchantsquisegaventgrrrrr ou bien pour cause d’animaux préhistoriques partouzeurs de droite qui ont peur des méchantes ondes et ralentissaient la pose des antennes ?



C’est une vraie question.





La vraie réponse est la première solution, puisque la pose des antennes était bien moins problématique avant que maintenant.