votre avatar

smnr

est avec nous depuis le 1 août 2013 ❤️

337 commentaires

Le 07/10/2013 à 19h 56

Suis-je l’un des seuls à ne pas utiliser twitter et surtout à ne lui trouver aucune utilité ? <img data-src=" />

SI quelqu’un envoie un message de 140 caractères, il n’a pour moi soit rien à dire, soit veut faire du click… (on tombe rarement sur de bonnes choses de l’autre côté du lien raccourci)

Au pire, twitter peut servir de plateforme de push, mais l’archi est alors inadaptée…









127.0.0.1 a écrit :



Ah… ouais… Mais quotidien tous les jours, ou juste le lundi ?





<img data-src=" />


Le 04/10/2013 à 12h 43







geekounet85 a écrit :



ou alors, tu va sur le premier lien (qui est aussi le premier mot de la news) qui t’explique ce que c’est…





Je trouve que j’ai ouvert assez d’onglets. D’autre part, “Fin aout”… <img data-src=" />







Punkenjoy a écrit :



C’est un programme de Valve qui permet a des éditeurs tiers d’appliquer pour vendre leur produit sur la plateforme Steam.



Les utilisateurs de steam sont sollicité pour savoir si oui ou non ils achèterait un tel jeux et au final les gagnants sont inclue dans le magasin Steam.





Merci. <img data-src=" />


Le 03/10/2013 à 20h 31

C’est quoi Greenlight ? Je veux dire, oui je peux aller chercher sur google, mais sur une “news” qui fait 400 mots, un tweet tout au plus, vous auriez pu rajouter une phrase d’introduction (on ne vous a jamais appris ça à l’école, la définition des mots?) sur “Greenlight”.

Le 03/10/2013 à 22h 38

Attention, je ne dis pas que le multi-core est inutile <img data-src=" />



Je dis juste que la majorité se trompe de mesure. Si j’ai un monocoeur cadencé à 100GHz avec un CPI très faible et des latences pas trop mauvaises je vous poutre vos processeurs actuels, un viol même ! (avec des programmes adaptés)









foetus a écrit :



Exclusif chez Intel et inclusif chez AMD <img data-src=" />





Ma question était plutôt : quel est le coût de ce partage/d’un switch ? <img data-src=" />


Le 03/10/2013 à 20h 46







FREDOM1989 a écrit :



Raté, le FX8350 est un quad core physique. Les commerciaux aiment bien parlé de 8 coeurs mais c’est totalement faux, un coeurs c’est un module complet, modulu qui gère deux thread par contre.





Vu qu’aun éditeur veut normalment que son jeu puisse tourner sur un max de pc je pense qu’ici Ubi a fait un portage à la va vite pas du tout optimisé pour contenter les gros joueurs pc fortuné.





Non c’est bien 8 cœurs comme te le dit Punkenjoy.



D’ailleurs on se contrefout totalement de la question du nombre de cœurs pour un processeur central, comme la course au Mhz, c’est l’architecture générale qui compte : vous oubliez bien vite le CPI, la BP mémoire (cache), les pipelines, le SIMD/MIMD… etc.



C’est bien beau d’avoir un processeur multi-cœeur, mais vous êtes vous demandé comment ceux-ci partagent-ils les données entre eux par exemple ?


Le 03/10/2013 à 20h 38

J’en suis sûr que les gens ont râlé. Les même qui se plaignaient du fait que l’industrie du jeu ne passait pas de manière effective au multi-threading et au 64bits. <img data-src=" />

Le 03/10/2013 à 20h 50







FunnyD a écrit :



C’est para pire qu’autre chose.





Il faut trouver “l’autre”…


Le 02/10/2013 à 18h 42







Lafisk a écrit :



Oui donc une proportion plutôt négligeable de la population … j’ai beau avoir les compétences pour tout ça, déjà moi ça me saoul de paramétrer ce genre de chose alors j’imagine l’utilisateur lambda … il a beau être un utilisateur lambda, il peut ne vouloir une grosse connexion que pour télécharge ses torrents plus vite ou regarder sa télé online sans défoncer sa BP pour d’autre chose etc …





Non. Les gens vont apprendre l’Informatique avec un grand I. Cela va devenir une nécessité dans quelques années, et mieux vaut avoir une infrastructure en place.


Le 01/10/2013 à 22h 12







brazomyna a écrit :



Les couleurs, ça se délave. <img data-src=" />





Ce phénomène n’est-il pas corrigé actuellement en bouts de lignes ? (ma mémoire n’est pas infaillible non plus, elle cent le sapin même <img data-src=" />)



Edit : wtf qui a volé mon centage ? :(


Le 01/10/2013 à 21h 14







brazomyna a écrit :



Ca c’est n’importe quoi par contre.



On a certes de la marge théorique, de l’ordre d’une bande passante en 10^6 supérieure à ce que peut tenir le cuivre. Mais rien d’illimité.



Or le besoin dans ce domaine évoluant typiquement de façon exponentielle, la limite viendra relativement rapidement (on compte en décennies).



Pour rappel, le cuivre proposait 1200 bits/s exploitables au début de son exploitation du côté du grand public (typiquement, le Minitel). On a effectivement grimpé d’un facteur 10^5 avant d’arriver aux limites actuelles.



Bref, on reste dans ls clous en terme de longévité.





Ça dépend de la fibre, si elle est en noir et blanc ou tout en couleurs <img data-src=" />


Le 01/10/2013 à 21h 11







Patch a écrit :



vu que la BP max de la fibre est virtuellement illimitée… ca va être dur de l’atteindre. <img data-src=" />





+1







Patch a écrit :



ce sont les équipements de bout de ligne qui font la différence, et qui coûteront beaucoup plus chers sur du FTTH GPON pour avoir un truc équivalent au FTTH P2P…





Ça va dépendre des situations, mais globalement, l’économie faite aujourd’hui se paiera plus cher demain.


Le 01/10/2013 à 21h 06







Wellito a écrit :



Prendre de la fibre c’est plus resistant, celle de casto c’est de la … <img data-src=" />





Je suis allé au docteur pour des maux de ventre, et m’a conseillé de manger plus de fibres, depuis, je n’ai plus de connexion internet. <img data-src=" />


Le 01/10/2013 à 20h 59







Lafisk a écrit :



Surtout que même à paris il y a toujours des endroits où il n’y a pas de fibre … au boulot on est pas éligible alors qu’on est sur l’avenue de l’opéra et le plus drôle c’est qu’une rue plus loin ils le sont … on est une entreprise avec moins de 50 personne mais même pas 2Mbps de connexion, la misère de faire du dev web quand tu as 23 zigotos qui mettent leurs playlist online à tourner toute la journée voir pire leur playlist de clip youtube …





Quel est donc le nom de cette entreprise à éviter ? <img data-src=" />


Le 01/10/2013 à 20h 17

Au delà de l’aspect technique, il est même des raisons de philosophie qui poussent à préférer le FTTH.

Le 01/10/2013 à 20h 14







brazomyna a écrit :



A titre personnel, je reste persuadé que faire une économie de bout de chandelle sur le GPON vs. le FTTH est une aberration sur le (très) long terme.





Je suis tout à fait d’accord avec toi <img data-src=" />


Le 01/10/2013 à 19h 20







brazomyna a écrit :



Il y a dix ans un recepteur WDM monomode à mettre en bout de fibre se comptait en (dizaines de) millier d’euros. Aujourd’hui, on t’en vend à 50 euros sur La Redoute.



A ton avis, dans dix ans, quand on commencera à vouloir faire de l’aggrégation de plusieurs longueurs d’ondes chez le particulier, le prix sera encore un problème ?





Non, dans dix ans, il n’y aura effectivement pas de problèmes de prix.

Un labo de recherche britannique (dont j’ai oublié le nom) travaille sur un décodeur mécanique (une sorte de filtre précis), la technologie ne coûtera pas cher du tout.

De toute façon, il y a assez de longueurs d’ondes pour tout le monde <img data-src=" />


Le 01/10/2013 à 18h 29







brazomyna a écrit :



Ben non: si tu peux faire du WDM-PON pour 64 clients, tu pourra tout autant faire du WDM pour une fibre dédiée à chaque client avec un débit 64 fois supérieur.



<img data-src=" />





Sauf que le matériel ne décode pas mécaniquement le signal lumineux. Je te laisse deviner la puissance de calculs nécessaire en bout de fibres <img data-src=" />


Le 01/10/2013 à 18h 20







chriscombs a écrit :



Je ne suis pas un expert, mais à priori, une techno appelée WDM-PON équivaudra à une fibre dédiée par utilisateur.

Le principe : des lumières de couleur différente au sein d’une même fibre, une couleur / spectre par client. Donc cela permettra 2.5 Gb pour chaque client aux lieu de partager le débit. Ce n’est pas encore normalisé, mais ça semble être la solution pour ne plus avoir de baisse de débit sur des solutions GPON.



Ce graphe de lafibre.info explique bien le principe, une wave length par client. Donc un débit max pour tout le monde :https://lafibre.info/images/tuto/200809_WDM-PON_2.png





Ils utilisent quoi en bout de fibre pour traduire ça ? <img data-src=" />


Le 01/10/2013 à 17h 49







kidz a écrit :



un disque dur pas trop vieux suffit.. le mien fait 145mo/s en ecriture





Au pire, créer un RAMdisk.


Le 01/10/2013 à 20h 23







lsPCI a écrit :



Allez, disons 138, c’est vrai que le déploiement progresse à grande vitesse.

Je n’attends rien du VDSL, c’est pareil ça concerne les 394 chanceux qui habitent dans les NRA. Ce n’est pas cela qui résoudra le problème de l’immense majorité des connexions en France dont le débit est compris entre 512 kb/s et 6 Mb/s parce que la ligne de cuivre rouillée fait 63 km (et 2 nm de diamètre)…





Quand l’État ne soutient plus l’effort d’investissement, ça donne ça oui. (le reproche n’est pas fait à l’État, quoique les gouvernements de ces dernières années…)


Le 01/10/2013 à 17h 43

Je veux connaitre la position du klaba quant à l’auto-hébergement <img data-src=" />

Le 01/10/2013 à 17h 35

1Gbps sur l’infra free je suppose, quid des interconnexions ?!

Le 30/09/2013 à 20h 00

Semi-HS:

Pas de support “officiel” d’OpenGL sur WP ?

Le 30/09/2013 à 06h 41

Vous devriez leur facturer vos si bons conseils mes chers !

Le 28/09/2013 à 23h 52







vampire7 a écrit :



Au fait, ça fait quoi si on ne suit pas ton “conseil” ? Tu vas te fâcher ? <img data-src=" />





Oui. <img data-src=" />


Le 28/09/2013 à 22h 13







Glubglub a écrit :



Désolé, mais moi aussi je suis un gros geek barbu.



Ceci dit, je n’ai pas la fausse prétention de me soucier de la légalité des licences du lecteur qui servira en grande majorité à lire des fichiers illégaux.



Je me fout des débats stériles sur PotPlayer (tous venus d’un seul forum).

C’est un lecteur gratuit et sans pub.

Que tu le veuilles ou non, le monstre amoral qui lui sert de développeur reste un bénévole, et il fait un meilleur travail que les autres.





Je ne connais pas l’objet de votre discorde mais je te conseille d’arrêter de suite ton procès d’intentions.

D’autre part, si tes valeurs de référence ne se limitent qu’au “gratuit et sans pub”, je t’invite à étoffer ce qui te sert de culture avant de venir l’étaler de manière agressive et puérile.


Le 26/09/2013 à 20h 22







KiaN a écrit :



Ben non <img data-src=" />

Absolument pas.



MPC-HC et VLC se suffisent à eux-même et font tout.



Quelle idée d’y ajouter des packs de codec de merde.





Au pire CCCP <img data-src=" />

(s’il existe toujours)


Le 26/09/2013 à 20h 16







Zorglob a écrit :



Hello,



J’ai rien lu mais je suis content de voir que ça avance, bravo messieurs, bravo président.

Au passage, est-ce qu’on peut maintenant reculer frame by frame ?





Nein. <img data-src=" />


Le 28/09/2013 à 17h 37

Je n’aime personnellement pas le virage pris ces dernières années en direction de la centralisation des données et des capacités de calculs.

Cela permettra aux entreprises d’englober la course à la puissance dans la vente de services au détriment du contrôle qu’avaient les utilisateurs sur leurs outils informatiques, tout en introduisant une certaine fébrilité dans les réseaux sous-jacents.



Je ne sais votre avis sur la question. Moi je préfère garder le contrôle et la pérennité des capacités.







Bon je retourne au dév de mon noyau moi <img data-src=" />

Le 27/09/2013 à 18h 16







charon.G a écrit :



Pas sur le court terme. Je m’explique.

Microsoft a voulu offrir une tablette avec certaines possibilités desktop (office). L’idée marketing derrière la stratégie Windows était d’offrir une expérience sans compromis(Je reprend leur terme). Ils se sont viandés sur Windows RT. Car en réalité tu ne peux pas lancer d’applications Win32 autres qu’Office.

Microsoft depuis le début s’est démarque de cette façon pour Windows RT. De nombreuses critiques justifiées ont déjà été porté par d’autres sur ce point.



J’expliquais dans une autre news les raisons de ce blocage Win32 sur Windows RT. Les principales sont les performances et l’autonomie. Si Microsoft avait activé Win32, les gens auraient criés car photoshop et leurs applis habituelles ne marcheraient pas sur une tablette.



Avec la stratégie des trois écrans Microsoft avait déja expliqué l’importance du cloud.

La démo Halo4 est très explicite. Tu peux lancer des applis lourdes sur du matériel peu puissant comme des smartphones.

Bien utilisé le cloud devrait permettre l’unification. Il existe même des projets pour porter DrawBridge sur Azure. ça permettrait de lancer des applis win32 sur le cloud.



Microsoft pourrait proposer un Windows RT revu qui offre les mêmes capacités qu’un PC. Voila pourquoi je disais que cette stratégie pourrait sauver Windows RT.





Ils vont utiliser Xorg pour ça ? <img data-src=" />


Le 28/09/2013 à 17h 26







ssj4gokusama a écrit :



N’imagine pas. Moi, en tant que gaucher, cela me fait ni chaud ni froid…





Toi tu dois certainement être le représentant interplanétaire des gauchers <img data-src=" />


Le 27/09/2013 à 23h 03







ouvreboite a écrit :



Je sais bien mais ce que je veux dire c’est que ces spécificités vont demandés au développeurs d’avoir ce pad là en tête.



Donc les “vieux” jeux ne seront pas forcément compatibles et on perf la relative interchangeabilité des pads ps3 et 360 (layout différent mais suffisamment proche). De la même manière qu’un pad du Nvidia Shiled est “différent” mais suffisamment proche pour être utilisé sur tous les jeux supportant le pad 360.



En gros, plutôt que d’avoir un pad qui s’insère dans le cadre actuel mais qui offre des choses en plus, on va avoir un truc bien à part demandant des adaptations.





Ah d’accord, je ne voyais en effet pas la chose de la sorte. Il faudra alors certainement compter sur la communauté <img data-src=" />


Le 27/09/2013 à 22h 41







pandaroux a écrit :



Seulement vu tout ce qu’il y a dedans, elle risque de coûter un bras non ?





Cela dépendra de la date de sortie prévue par la Valve <img data-src=" />


Le 27/09/2013 à 19h 36







ouvreboite a écrit :



Pourquoi pas. Avoir des boutons utilisables aussi du pouces gauche c’est pas con.



Par contre je me demande comment ils vont gérer trois problèmes particuliers :




  • la précision d’un “gros” pouce sur une surface tactile. Si il faut “pointer” avec le bout du pouce comme sur un portable ca peut devenir désagréable à la longue.

  • le retour en position de “repos”. Avec un stick avec une résistance élastique, on revient en position neutre dès qu’on applique pas de force. Ici, je ne sais pas trop de que ca va donner. J’imagine que les touchpad sont concaves donc que le pouce “tombe” au centre, mais ca risque de donner un peu l’impression d’avoir un stick tout mou.

  • par rapport au layout dominant actuellement (360 / ps3), il y a pas mal de changement. Ca peut poser problème niveau ergonomie. Il y a suffisamment de “boutons” (16, comme le pad 360) mais le placement est bien différent. Rien que pour les “combo” de touches des jeux de combat (appuyer simultanément sur deux touches adjacentes avec le même doigt) ca va être funky.





    Le problème du gros pouce peut être réglé avec une distribution et des profiles sur tout engin tactile.

    Pour le deuxième point, il suffit de recalculer les coordonnées, de toute manière je pense que ça va être un choix laissé aux développeurs (tous les jeux n’auront pas besoin de ce retour par exemple).

    Enfin, les jeux fourniront des didacticiels, ils n’utilisent en effet tous les même manettes de la même manière.


Le 27/09/2013 à 19h 07

Curieux objet.

Il aura au moins le mérite d’attirer l’attention de tout le monde. Pour le reste, attendons sa mise au banc d’essai.

Le 28/09/2013 à 04h 16







Nyn a écrit :



Perso la moindre recherche google vire à la crise nerf. Je sais ce que j’écris et je l’ai pas écrit pour rien, marre de devoir mettre des guillemet et des moins partout pour avoir un résultat potable. <img data-src=" />





Je me sens de moins en moins seul <img data-src=" />


Le 27/09/2013 à 19h 19







Tumeconnais a écrit :



Y’a que moi qui n’arrive pas à me rendre sur Google.com? même en navigation privée, sur google.com j’ai google Français <img data-src=" />



edit : du coup je suis allé sur gogle.co.uk





Il te faut cliquer en bas à droite de la page d’accueil française de google sur “Google.com” <img data-src=" />


Le 27/09/2013 à 19h 04







Bidulbuk a écrit :



Il est en open-source cet algorithme ?





<img data-src=" />


Le 27/09/2013 à 19h 04







lysbleu a écrit :



S’il pouvait arrêter de phagocyter la moitié de la première page avec les résultats d’une recherche que je n’ai pas faite dès qu’il n’en a pas trouvé suffisamment, d’après lui, avec ce que j’ai tapé, ce serait pas mal <img data-src=" />





Oh que c’est emmerdant en effet <img data-src=" />


Le 27/09/2013 à 14h 31



« Nous prenons très au sérieux la sécurité et la protection de la vie privée de nos utilisateurs, les informations récentes qui prétendent le contraire sont tout simplement fausses. Nous avons développé pour Gmail des fonctionnalités de sécurité et de protection de la vie privée qui sont parmi les meilleures du secteur, et quel que soit l’émetteur d’un message envoyé à un utilisateur de Gmail, ces protections s’appliquent »



Lire : nous travaillons d’arrache pied pour que strictement seul Google ait accès à vos données. Sinon qu’est-ce qu’on va bien pouvoir vendre…

Le 26/09/2013 à 20h 34

À quelques détails près, je préfère l’interface de 98 finalement <img data-src=" />

Le 26/09/2013 à 00h 21

Palladium <img data-src=" />

Le 25/09/2013 à 23h 42







dricks a écrit :



0 concurrence=0 innovation



Tu m’étonnes que le marché PC se casse la gueule.

Il ne se passe plus rien.



Les nouvelles “générations” CPU se contente de rajouter 50Mhz, ou d’améliorer les perfs des GPU intégrés (cherchez l’erreur)



Idem pour les GPU. On est passé d’une époque à +50 à 80% de perfs supplémentaires par an à +1015% tous les 18mois voire tous les deux ans.



Quand on voit comment ça bastonne sévère du côté des tablettes, tu m’étonnes qu’on en ait plus rien à foutre du marché PC.



Même Ms essaye de fourrer son OS pour tablette sur PC. Le monde à l’envers.

Comme si c’était révolutionnaire des cubes et des rectangles les uns à côté des autres.

Je veux bien croire que c’est plus pratique pour du tactile, mais moi j’utilise une souris avec mon PC, et le premier qui mets ses doigts gras sur mon écran je lui mets une mandale.

Sans déconner.





Il y a innovation dans les laboratoires de recherche. Quand une techno arrive sur le marché, c’est qu’on a trouvé un procédé d’industrialisation.

Je rajoute que je n’ai jamais vu de technologie fraichement sortie d’un labo vite industrialisée. Il faut attendre plusieurs dizaines d’années en général…

Cette petite digression est là pour vous dire que l’innovation que l’on vous vend n’est qu’un pur produit de la publicité.

Pour mieux comprendre mon propos, va acheter un ordinateur quantique, tu constateras après transaction le trou dans ta poche <img data-src=" />


Le 25/09/2013 à 23h 11

C’est pour déployer plus vite sur une plus grande surface tout en proposant des abonnements ± abordables. Les équipements seront changés dans le futur.

S’ils déployaient du gros matériel (qui coûte très très cher) de suite en amont des fibres, le temps d’amortissement deviendrait très long et/ou les forfaits seraient hors de prix. Le dernier affecte aussi le premier.

Le 20/09/2013 à 10h 35







misterB a écrit :



toi aussi tu as vu la folie pour GTAV <img data-src=" /><img data-src=" /><img data-src=" />





Les produits de la pomme possèdent certes d’indéniables qualités, mais arrivé à un point, il ne faut simplement plus abuser le B.

Il est clairement question d’aliénation et non pas d’engouement, arrivés à ce stade là. <img data-src=" />


Le 19/09/2013 à 16h 42







uzak a écrit :



Il y a beaucoup de perte en liaison aérienne comme ça sur les 3G/4G ?

par rapport au wifi, au filaire ?





Ça dépend <img data-src=" />


Le 19/09/2013 à 13h 35







AlphaBeta a écrit :



Tu m’etonnes que la criminalité reparte en fleche. Les coupables sont systematiquement protégés par des constorsions du systeme…





Le réac’ de service est arrivé en pôle position <img data-src=" />


Le 19/09/2013 à 12h 35

Haha quelle bande de clowns ! <img data-src=" />

Le 17/09/2013 à 20h 51







oposs a écrit :



Ceci dit la VRAIE nouveaute c’est le M7:

http://www.macg.co/unes/voir/132129/ce-que-prefigure-le-co-processeur-m7-d-apple



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />





Quelle nouveauté ! Ils auraient dû le faire depuis plus de deux ans ! <img data-src=" />


Le 14/09/2013 à 13h 01







Tirr Mohma a écrit :



Ils ont déjà commencé à écraser la concurrence. Tizen va normalement utiliser Wayland le prochain serveur graphique des distribution gnu/linux, sauf que Canonical a décidé de créer son propre serveur graphique pour unifier le desktop avec le mobile, jusque là rien de bien extraordinaire. (après on peut discuter de la légitimité de l’action canonical, mais passons).

Du coup il faut un patch pour pilotes graphiques intel afin qu’ils tournent correctement sur le serveur graphique de Canonical, le patch a été écrit, il a été ajouté aux modifications des pilotes et surprise ! Intel a décidé de retirer le patch au dernier moment sans aucunes raisons techniques.





C’est de bonne guerre <img data-src=" />