votre avatar

Skeeder

est avec nous depuis le 18 mai 2007 ❤️

1356 commentaires

Le 04/07/2013 à 10h 23



La technologie sera en outre capable de détecter les touchers accidentels du touchpad lors de l’écriture au clavier.



J’espère que cela sera désactivable. J’ai toujours trouvé contre productif ce genre de technologie qui force une latence entre une frappe au clavier et l’utilisation du touchpad (surtout sur PowerPoint).

Le 04/07/2013 à 08h 47







Drepanocytose a écrit :



Personne ne refuse de faire les tests, que crois-tu ? Il n’y a que les idiots qui pensent ca.



Des tas de scientifiques ont cherché les gènes dits “déviants” (du suicide, de l’homosexualité, de la dépendance aux drogues, etc) et ne les ont pas trouvé.

Enormément de généticiens les ont cherché, je te le repète : ET NE LES ONT PAS TROUVÉ…..





Je crois qu’il y avait une étude (avec contre-étude) qui montrait que ce n’était pas forcément les gènes, mais quelque chose autour, qui avait une influence sur la sexualité (sans être déterministe). Je me souviens plus le nom de la structure, mais de souvenir ce n’était pas lié au gamètes, mais à leur environnement lors du développement du foetus.

Dans tous les cas, si ça devait influencer quelque lois que cela soit, ça serait plus au niveau de la PMA. La loi actuelle stipule des conditions strictes pour pouvoir y avoir accès, si l’homosexualité est reconnue être une maladie empêchant d’avoir des enfants (puisque subit), alors il serait déjà possible d’avoir accès à la PMA, dans le cas inverse il faut une modification de celle-ci (et dans le contexte actuel ça me parait improbable).

Mais on en arrive à la branlette intellectuelle scientifico-juridique…


Le 03/07/2013 à 15h 01







Industriality a écrit :



C’est dingue d’avoir des pubs dans un produit que tu as payé…



Sans compter l’absence de choix du moteur, encore un procès en vu :)





La limite OS/Navigateur est de plus en plus floue. Ici Bing est un service web (comme Actualité, Météo, Finances), qui fonctionne avec de la pub.

Sachant que c’est désactivable, cela ne me dérange pas; mais dans tous les cas s’agissant de services web, je ne trouve pas ça choquant <img data-src=" />


Le 03/07/2013 à 14h 56







gab69110 a écrit :



Très INtéressant, avez-vous une idée des prix pratiqués par les FAI classiques pour des lignes entreprise haut débit ?





Pour du 100Mbps tu peux aller chercher jusque dans les 3000€. Tout dépend de combien de lignes tu as, de comment t’as négocié, des engagements etc.

Du coup, effectivement 10Gbps pour 3000€, ça fait pas chers.







DKman a écrit :



C’est pas vraiment honnête comme tarif du coup … tu divises par 100 voisins pour avoir du 100 Mbps “seulement”, ça fait ptet ~40€ / tête <img data-src=" />





Y’a du GTR (sans doute 4h? j’ai pas regardé) et du taux de dispo garanti là.







raptor7 a écrit :



Hum assez intéressant surtout quand on sait que Nerim a une bande passante maximale total de 20Gbps et qu’actuellement il culmine à 4Gbps.

Je ne vois pas comment il vont faire <img data-src=" />

Les annonces ou le pouvoir du marketing… <img data-src=" />



http://stats.nerim.net/nav/global/





Attention, il s’agit de la BP Internet, du coup les 10Gbps sont surtout là pour les services WAN.


Le 03/07/2013 à 12h 04







Marc4444 a écrit :



Cool, hâte de voir un Fernandel en 4k upscalé et colorisé… Trop fort !





Pour le coup, ça sera de l’upscale de bonne qualité <img data-src=" />


Le 03/07/2013 à 08h 47







uzak a écrit :



Déjà qu’ils fassent sauter la limite fair-use en 3G et qu’ils fournissent une couverture stable, et on parlera de 4G après…





Si tu veux faire sauter la limite fair-use en 3G/4G, regarde les offres Swisscom sans Fair-Use. Pleure. Et reviens en France <img data-src=" />

La couverture stable sera bien plus facile à établir en 4G (combinaison 700, 800 et 1800 et 2600 MHz) qu’en 3G (qui va sans doute disparaitre plus vite que la 2G).


Le 02/07/2013 à 18h 35







Chloroplaste a écrit :



Une fois que les investissements sur l’amélioration de la résolution d’affichage sur smartphone vont stagner voir baisser, j’espère que ce cashflow supplémentaire se reportera sur l’amélioration des batteries.





Il y a déjà des startups qui bossent sur des produits très intéressants comme des filtre écran qui font aussi panneau solaire, sans réduire la luminosité de l’écran ou la réactivité du tactile


Le 02/07/2013 à 16h 25







after_burner a écrit :



C’est possible du 4K sur du 6” max?



Je crois que le gain en résolution va plafonner pendant au moins 3ans sur des diagonales du genre. Après, supporter le 1600p n’aurait pas été de trop je pense, pas que ce soit utile, mais p-e indispensable dans ~1ans. <img data-src=" />





On va tout de même arriver à une limite (si ce n’est pas déjà le cas) de définition. Les avancées sont plutôt du côté des technologies 3D sans lunettes, type réseau lenticulaire. (Y’a déjà des écrans 24” avec ce genre de technologies, ça coûte dans le milier d’euros)


Le 02/07/2013 à 16h 22

TL;DR : Free moins chers, et Orange/Sosh pour ceux qui vont dans des pays que vous ne connaissez même pas de nom <img data-src=" />

Le 02/07/2013 à 16h 13







jinge a écrit :



(…)

Ok, mais dans ta vie quotidienne ça te change qqchose? <img data-src=" />

Je l’ai aussi avec le tel du taf, mais pour l’instant ça ne me sert strictement à rien!





Franchement, c’est frustrant lorsque l’on revient/repasse en 3G…

A terme il y aura aussi d’autres avantages, comme la meilleure accroche en mobilité + le tunnel IPv6 en LTE (adresse publique IPv4 pour l’instant mais WAN opérateur IPv6) ce qui permet de n’avoir aucune coupure (Pas de changement d’IP lors d’un changement de cellule radio), et d’avoir des débits de l’ordre de 10Mbps à plus de 100km/h <img data-src=" />


Le 02/07/2013 à 16h 05







xjqt a écrit :



Dailymotion permet-il de diffuser des vidéos en direct comme Youtube ?





C’est même un peu l’USP de Dailymotion le Live. C’est pour cela que ça marche bien aux États-Unis, pour la retransmission d’événements.



(Par contre pour la fonction Hangout…)


Le 02/07/2013 à 12h 55







Bidulbuk a écrit :



Je sais pas ce que t’apelle “ringard” sauf à regarder l’image comme un geek, par ce que des films formellement sublims sont fait avec des smartphone et des grosses daubes surfaites et kitsh avec des Genesis.



C’était juste pour dire que les DSLR ont été équivalent pour la fiction à ce qu’à été la DV au documentaire dix ans plus tôt, et que ça a fait pencher l’industrie vers d’autres standards et d’autres usages.



Quand à la RED, elle est extrêment pénible pour tout le barda propriétaire qu’il faut pour en gérer la postproduction convenablement.



ARRI ou ATAON ça c’est des vrais caméras de cinéastes et pas des machins bricolés pour nerds <img data-src=" />





Je ferais fis de ta condescendance, mais ce que j’appelle ringard, c’est juste dire que le 5D Mark II est complètement dépassé par une caméra de grosse production cinéma, et c’est normal. Il faut juste pas croire que parce que deux plans ont été filmés dans la pénombre avec un 5D que les grosse prod l’utilisent vraiment.







Bidulbuk a écrit :



*AATON

Le 4:4:4 c’est surtout utile si tu fais du fond vert et beaucoup de compositing, y’a des milliards d’heure de métrage qui sont étalonnées et superbe en 4:2:2, y comprit des trucs qu’on voit au cinéma.



(… /personal branling/ …)



Bref c’est surtout un problème de connectique et de recorder l’échantillonnage, pas tellement de boitier (et aussi de bridage des firmware…).





Le 4:4:4 c’est utile dès que tu veux étalonner. Si tu étalonne pas, c’est qu’un 5D te suffit, effectivement. <img data-src=" />


Le 02/07/2013 à 09h 31







Bidulbuk a écrit :



C’est fou le nombre de film cinéma qui se sont fait avec ces boitiers.



Y’a même des plans “easter eggs” avec dans Transformers 3 <img data-src=" />





C’est pas tout à fait vrai.

Ce sont seulement quelques plans qui sont filmés avec ce genre de boitier. Souvent plus pour faire la pub des boitiers que par nécessité. Ces boitiers ont une qualité bien ringarde devant une caméra de cinémas, le seul avantage ce sont certains objectifs à très grande ouverture qui permettent d’avoir une très faible profondeur de champ. C’est uniquement pour ce cas qu’ils sont utilisés.

Mais dans le fond, ils manquent cruellement de réglages accessibles, de mise au point pratique, de monitoring etc.

Canon commence à peine à sortir un boitier dédié au cinéma (EOS-C) avec des objectifs dédiés (mais la monture reste compatible EF/EF-S), au final ça coute quasiment le même prix que les RED, donc peu d’intérêt.

Même dans les petites productions on préfèrent filmer avec une caméra pro que de se coltiner un 5D Mark II/III (Qui ne permet pas de bien étalonner l’image (+rendu 4:2:2 au lieu de 4:4:2), ce qui fait qu’on se retrouve avec le même rendu que n’importe quel pecno qui utilise un 5D…)


Le 02/07/2013 à 09h 19







maverick78 a écrit :



Le même Symbian qui est dans le tableau à 0.9% ? <img data-src=" />





Autant pour moi, ils s’agit des ventes, je pensais que c’était les PDM


Le 02/07/2013 à 08h 00







seblutfr a écrit :



Ca veut dire quoi ? Les OS actuels ont tous leurs qualités et avantages.

Voir Android atteindre 70 % de moyenne sur l’Europe et 92 % en Espagne, je ne trouve clairement pas que ce soit la situation la plus saine qui soit.





C’est pas vraiment 92% en espagne en fait. C’est juste que cette étude ne considère pas Symbian comme un OS de Smartphone et les espagnols ont encore beaucoup de Symbian :)


Le 01/07/2013 à 17h 20







misterB a écrit :



(…)



Ce que je reproche au Femen est la même chose que je reproche a tout mouvement trop extreme c’est de faire sans doute plus de mal à la cause qu’autre chose.





+1

Je trouve que sur le court-terme ça fait ne fait qu’empirer les choses, et que sur le long terme ça ne change rien par rapport à d’autres styles de militantisme.


Le 01/07/2013 à 13h 16







OlivierJ a écrit :



C’est le documentaire sorti sur Arte qui prétend cela. Mais une ampoule a incandescence est soumise à des compromis entre le rendement, la qualité de la lumière et la longévité. Et pour simplifier, en augmentant la température du filament, on augmente le rendement et la qualité de lumière, mais on diminue la longévité.



Je recommande la lecture de ce billet : “Le mythe de l’obsolescence programmée “http://econoclaste.org.free.fr/dotclear/index.php/?2011/03/07/1773-le-mythe-de-l… (bizarre, le blog fonctionne et la page y est référencée, mais est blanche à l’instant).





+1 il suffit de voir les halogènes cinémas : spectre total du visible, mais 100h de durée de vie. (Contre 1000 à 10000h pour des ampoules qui ont des spectres plus “chaud”). Et aussi +100€ <img data-src=" />


Le 01/07/2013 à 12h 15







Zlebouffon a écrit :



C’est simple, l’époque pré-wow c’était des mmos d’un genre différent et variés (lineage, everquest (dont wow s’est inspiré fortement), AO, ultima, T4C etc…). Après le succès de titres comme wow s’est établi un schéma grossier du “comment faire” et on s’est retrouvé avec 1001 clones.

Les mmos qui ne reprennent pas pour base une suite de zone, un leveling, un arbre de talent,des quêtes tout aussi cons et un endgame basé sur des “raids”, on les compte sur les doigts de la main.



Le manque de charisme et d’innovation fait déjà assez peur, j’espère pour lui que Firefall va fonctionner mais le cynisme me rappel vite à l’ordre, dorénavant, face aux belles paroles. :(



Comme le dit oufledingue, j’voudrais aussi retrouver cette ambiance communautaire où il était nécessaire de discuter avec son prochain, de tisser des liens, ou le solo n’existe pas et où il faut se tenir la main en riant aux éclats sous un clair de lune bienveillant.







Il y a bien Defiance qui sort un peu du lot, mais qui manque cruellement d’aspect social (tu peux arriver au end-game en jouant tout seul dans ton coin, sans jamais parler à personne).


Le 01/07/2013 à 12h 02

Quand l’interface web est plus fonctionnelle que le player intégré : WP8 <img data-src=" />

Le 29/06/2013 à 14h 46







Falcor a écrit :



J’avais envoyé un mail mon bon … Chez canon il y a aussi les optiques et reflex jusqu’à 300€. Pour les adhérents FNAC avec un journée 15€ tous les 100€ ca peut faire un 24-70 II f2.8 pour ~600€ de moins :o





1400€ le cailloux <img data-src=" /> Mais effectivement, ça fait du neuf moins chers que de l’occasion <img data-src=" />


Le 28/06/2013 à 15h 05







feuille_de_lune a écrit :



Illogique à souhat … la société se remet petit à petit sur les rails et les investisseurs ne leur accorde aucune confiance … C’est peut être le bon moment pour acheter des actions RIM :)





En fait leur Business Modèle, basé sur un racket des opérateurs pour leur APN privé, est en train de se casser la gueule.

Les investisseurs sont pas idiots, RIM doit se réinventer complètement. Ce n’est pas encore le cas.


Le 27/06/2013 à 13h 46







illidanPowa a écrit :



juste ça c’est une bonne raison de ne pas aller sur Android pour moi.





Pourquoi?





illidanPowa a écrit :



ah bon? il faut attendre l’aval d’Apple quand Apple sort une mise à jour? <img data-src=" />

(…).





Bah oui, en Interne, il faut attendre l’aval qualité pour lancer la mise à jour <img data-src=" />



Ici c’est juste que l’aval qualité est partagé entre constructeur et Google.


Le 26/06/2013 à 11h 40







Esod a écrit :



L’idée de changer de réseau est très intéressante et innovante =)





+1 et ce qui est pas mal, c’est que seul un MVNO peut faire ça. Très bonne idée de leur part. Dommage pour le redémarrage du téléphone, à mon avis il n’y en a pas besoin, c’est juste que c’est plus facile à implémenter de cette façon.


Le 26/06/2013 à 09h 55







tAran a écrit :



Ils ont bon dos les consultants, c’est un taf comme un autre… <img data-src=" />





Surtout qu’on ne sait pas de quels consultants ils parle. Il y a des consultants pour tout. Entre la stratégie et l’intégrateur, en passant par le métier et la négociation.





Commentaire_supprime a écrit :



Bon, je vais oser une théorie personnelle que vaut ce qu’elle vaut, à vous de juger sur pièces.



Je pense que l’utilisation des consultants est inversement proportionnelle au leadership et à la capacité d’innovation des dirigeants d’une entreprise. Une entreprise avec des dirigeants visionnaires qui savent montrer la voie n’a pas besoin de X consultants pour savoir où aller, son ou ses patrons suffisent. Valable pour Free comme pour, par exemple, Apple.



A contrario, une entreprise plan-plan qui ne fait que de la gestion de l’existant, voire de l’exploitation de rente de fait (Orange d’une certaine façon) n’a aucune vision propre, ses dirigeants ne sont que de bons gestionnaires, pas des visionnaires. Donc, pour innover, ils doivent faire appel à des “experts en innovation” externes à l’entreprise, experts qui dictent sa conduite, avec des résultats variables.



Voilà ma théorie. Maintenant, vous qui êtes sur le terrain, qu’en pensez-vous ?







Dans les grandes entreprises, on fait appel à plusieurs type de consultants, et ce n’est jamais comme dans les films ou les séries. Il y a des missions longues (compétence requise temporaire a.k.a. intérim de luxe), où le consultant est une sorte de salarié de renfort, il apporte son savoir-faire et son expérience des autres entreprises du marché. Il y a des missions courtes, souvent plus sur les travaux en amont (développement, métier ou stratégie), ou l’entreprise cherche avant tout à avoir une “vision extérieure” (comprendre “savoir ce que font les concurrents”) qui se résume certes en de beaux slides et quelques analyses de chiffres, mais l’entreprise qui a commandé l’étude, ou qui a fait appel aux consultants, le fait avant tout par manque de données. C’est donc surtout de l’intelligence économique qui est opérée par les cabinets de conseils. Les grandes entreprises ont besoin de savoir où elles sont sur le marché, et donc on besoin de savoir où en sont leur concurrent.



Je n’ai absolument aucun doute sur le fait que Free ou Apple font appel à des cabinets de conseil, et à plusieurs niveau (strat, métier, intégration etc.). Croire le contraire serait bien naïf.



Croire aussi que les stratégies opérateurs se basent stricto-census sur des recommandations de cabinets de conseil est aussi complètement naïf. Il y a des équipes entières dédiées à la stratégie dans les grandes entreprises, c’est pas pour faire joli.


Le 24/06/2013 à 16h 00

Cette histoire de vente liée c’est pas un peu un faux problème?

Dans le sens -&gt; si tu veux pas une machine avec un OS, tu prend une machine sans OS (Cela existe, même pour les ordinateurs portable). Si les ventes de PC sans OS marchaient mieux que les PCs avec OS, alors on en verrait plus. Pour l’instant ça reste un marché de niche qui est déjà adressé.

Le 24/06/2013 à 15h 49







John Shaft a écrit :



Ah ça… <img data-src=" />



Faut se sortir les doigts et créer un FAI PC INpact <img data-src=" />





Là je suis totalement d’accord. Ils font bien cela à la FDN, alors pourquoi pas nous?

Nous sommes nombreux ici a avoir des notions de réseau suffisantes pour la partie technique, et pour la partie association, je pense que la FDN a de la documentation.







Bourrique a écrit :



Tant qu’à faire dans la proposition stupide <img data-src=" />

Je propose que si on paye au Go downloadé, on soit payé (ou du moins remboursé) pour les Go uploadé.

Un peu comme le rachat de l’électricité solaire par EdF.



Et comme ma consommation doit être de l’ordre de 100Go/mois dans les deux sens, j’aurais un internet qui ne me coutera plus rien. Ou presque.

Ca me va très bien <img data-src=" /><img data-src=" />



En plus, je résous leurs problèmes de peering, vu que j’émets pas mal.

C’est full bénef pour tout le monde.



Non ? <img data-src=" />







Pourquoi pas. Sérieusement, c’est pas si bête, cela ferait réfléchir les gens sur comment fonctionne Internet et les pousserai à héberger en local <img data-src=" />



Plus sérieusement, moi je m’en fous un peu si y’a une limite tant que de l’autre côté j’ai un débit assuré.

500Go en ADSL 2Mo/120Ko/s pour 25€/mois -&gt; OK

2To en FO 10/10Mo/s pour 40€/mois -&gt; OK

Mais alors si jamais Youtube ne se charge pas le dimanche (comme c’est le cas pour moi en ce moment), je fais un scandale !


Le 24/06/2013 à 12h 12







WereWindle a écrit :



en même temps, un jeu de course dans un Paris réaliste…. faut accepter de faire 1h30 en personal best sur un tour, quoi <img data-src=" />





Au pire les piétons ne ralentissent pas tant que ça <img data-src=" />


Le 24/06/2013 à 12h 07







Aces a écrit :



(…)

J’ai préféré le 2 sur Ps2, seul truc assez incompréhensible sur ma Ps2, le jeu plantait au début de la toute première course, bon ce n’était pas systématique mais aléatoirement…

Bref, oui lui aussi était bien ouvert niveau des maps.

(…)





Le 2 était bien sympa, Paris-Londres-Tokyo en “licence poétique” (comprendre par là : t’as bien le Louvre et la place de l’étoile, mais c’est loin d’être le plan parfait de Paris)


Le 24/06/2013 à 09h 19







draftii a écrit :



Ouai j’avais testé mais je ne sais pas pourquoi, j’avais pas accroché.

En plus c’était légèrement différent au niveau du concept, non ?





C’était la même chose, seulement que c’était uniquement la nuit pour Midnight Club. C’est le souvenir que j’en ai, car je me souviens que je cherchais un remplaçant pour Midtown Madness 2 sur PC.


Le 24/06/2013 à 09h 13







draftii a écrit :



A chaque fois que je vois “course en univers ouvert”, je suis nostalgique de mon bon vieux Midtown Madness… <img data-src=" />



Y en aurait pas un autre en préparation par hasard ? <img data-src=" />





Il y a eu les Midnight Club sur Playstation/Xbox


Le 22/06/2013 à 10h 36







elpetio a écrit :



apres il y a le coté mauvaise usage.

style on te fiche on enregistre tes infos enfin on le sait déja

mais on te piste aussi car qui sait ce qui peut arriver plus tard si un jour tu te fais serré pour une raison ou une autre. alors on pourra tout connaitre sur toi et te tracer

enfin facebook ne concerne pas seulement l’utilisateur en soi mais tous les usages et tout ce qui est relié a ses usages/

l’idée cest que:

big brother en a revé, facebook la fait.

il y a la surveillance généralisé qui veut que si tout le monde est fiché d’une facon ou d’une autre plus personne ne pourra s’opposer ou agir sans etre sous controle du régime

C’est en ce sens la ou facebook devient dangereux mais bon facebook est aussi dangereux pour les élites: on l’a vu avec la turquie, la tunisie le bresil et en france avec le mariage gay

Reste a savoir si cest suffisant. PErso je pense que plus on creuse lecart entre les élites et le peuple, plus cela arrange l’élite.





Pour être super honnête j’ai pas compris ton commentaire. <img data-src=" />

Graph Search ou Panel Orange Préférence, n’ont pas vocation à ficher tous les gens (Big Brother). Si les gens se fichent eux même dedans, c’est leur problème.


Le 22/06/2013 à 10h 11

Pour Facebook et Orange je trouve ça un peu idiot dans la mesure où c’est lié à la bonne volonté de l’utilisateur.

J’ai des amis qui sont fan des réseaux sociaux et de la pub personnalisé, car ils trouvent ça pratique et ils s’en foutent que certaines sociétés aient accès à leurs informations. J’ai envie de dire “pourquoi pas”, tant qu’on a le choix…

Le 20/06/2013 à 14h 19







Enyths a écrit :



Je viens de le recevoir, je me l’installe ce soir. Les précédents un Linksys EA6500-EW et un E4200 ayant eu des gros problèmes, j’ai changé de fournisseur.

J’en ai entendu beaucoup de bien, j’espère qu’il me conviendra.

(…)





Vraiment bien niveau performances, avec de nombreux réglages (on peut booster la puissance du Wi-Fi de 80 à 100mW par exemple, pour griller les voisins). Un bon support aussi, et des firmware à jour <img data-src=" />


Le 20/06/2013 à 11h 41







gathor a écrit :



Je parle des fabricants de routeurs (entre autres). Chez Buffalo par exemple le WZR-D1800H c’est bien 1300 + 450 puisque la puce BCM4360 est limitée à 1300 Mb/s <img data-src=" />





Au final, c’est du1750Mbps, au total (en double half-duplex). Donc si ton routeur est capable de faire du 1300+450Mbps, tu peux avec deux ordinateurs avoir 1750Mbps (un en ac, l’autre en n), ou 900 Mbps (deux en n).

Très intéressant si tu échange un fichier entre deux ordinateurs en Wi-Fi. Ou si deux ordinateurs Wi-Fi interrogent un serveur en Gigabit LAN <img data-src=" />. Chez moi avec le RT-AC66U j’ai du 20Mo/s+20Mo/s en Wi-Fi (Deux portable en n 300Mbps) lorsque j’interroge mon serveur en Gigabit LAN. Avec une seule bande n, j’aurai été à 10Mo/s+10Mo/s.



Le 19/06/2013 à 12h 59







ouais a écrit :



WP8 part de zéro donc oui, en bonne voie mais toujours aussi nul

W8: c’est le seul OS desktop. bonne voie ou pas, ils ont tout le temps de voir venir…







Quand je dis en bonne voie, c’est en bonne voie pour atteindre les estimations. On table sur du 18% de PDM pour WP8+ d’ici fin 2017 (contre 19% pour iOS par exemple). Ce qui veut dire qu’en 2013, 2014, 2015 et 2016 on passera par 3%, 7%, 13% et 15 % en gros.

Pour W8, l’adoption des entreprise va décoller vers fin 2013 (à cause des cycles des licences) . En bonne voie pour suivre cela.


Le 19/06/2013 à 11h 15







ouais a écrit :



Est ce qu’il a tort??

W8: tellement super que l’adoption est moins rapide que pour vista, MS doit reimplanter un semblant de Menu Demarrer,



W8RT: les ventes de surfaces ne sont pas communiqués. Samsung/acer/Asus critiquent à tout va cet OS.



WP8: depuis son lancement, ca ne décolle pas.





Oui il a tord, car c’est un gros troll. Comme ton message <img data-src=" />

WinRT est un échec,

WP8 est en bonne voie

Win8 est en bonne voie.

Source : la moyenne de tous les analystes de ces marchés. (Canalys, Strategy Analytics Informa Telecom, IDC, Idate, Forester, Yankee Group etc.)


Le 19/06/2013 à 09h 39







lut123 a écrit :



Voir mon post 2 heures plus tot…



La news PCI n’a donc pas lieu d’etre en l’etat puisque le dementi que tu cites a ete mis en ligne il y a 14h (Tue Jun 18, 2013 4:10pm EDT).





Oui mais tu comprend, PCI ils ont fait un édito récemment comme quoi Microsoft s’était planté avec la série 8 (Windows 8, Windows RT et Windows Phone 8), du coup, dès qu’ils pensent en avoir trouvé la preuve ils y vont tête baissée <img data-src=" />


Le 18/06/2013 à 18h 17







Ahuri a écrit :



Oui, mais c’est joyn “by orange”. Il me semble que Joyn ce n’est pas Orange à l’origine.

Ils rejoignent une initiative :http://www.joynus.com/us/



“joyn is a certification trade mark of the GSMA”



Donc, on ne peux pas vraiment leur en vouloir pour le logo et le nom…





Exactement, Joyn sera repris par tous les opérateurs du monde d’ici quelques années. Orange est sans doute un des premiers en Europe à lancer le service, c’est sans doute pour cela qu’il y a eu confusion.


Le 18/06/2013 à 16h 32



L’expression 4G est par contre utilisée à tort par l’opérateur.



Non. C’est faux. Le nom 4G a été autorisé pour l’utilisation commerciale de la LTE car la LTE apportait suffisamment de changement par rapport à l’HSPA pour être considéré comme une technologie 4G.

La LTE-a n’est qu’une évolution de la LTE, et rien ne change à part les débit entre R8 et R10. D’ailleurs, pour faire du LTE-a (R10), comment on fait? On fait de l’agrégation de lien LTE (R10).



Du coup :



Toutefois, selon Reuters, le futur Galaxy S4 de Samsung ne sera capable que de doubler sa vitesse en 4G, ceci grâce à une puce conçue par Qualcomm. Effectivement, ce dernier a annoncé en début d’année avoir développé une puce LTE-Advanced. Seul problème, cette technologie n’est pour le moment capable que d’atteindre 150 Mb/s. Un débit certe impressionnant, mais bien loin des standards de la LTE-Advanced. Dans le pire des cas, selon le 3GPP, le débit minimal pour être décrit comme LTE-Advanced devrait être de 300 Mb/s.



Le terminal est bel et bien compatible LTE-A, car il s’agit de la Release 10 (MiMO R8 en gros)

Le 18/06/2013 à 15h 12

5 millions de clics c’est pas si énorme que ça <img data-src=" />

1 clic/seconde ça fait environ 60 jours de jeu (non-stop). Et encore je suis gentil avec le 1 clic/seconde.

Le 18/06/2013 à 08h 47







jethro a écrit :



Jamais vu d’oiseau tué par une éolienne. Légende campagnarde des gens de la ville ? <img data-src=" />



Par contre à la campagne, j’ai un milan, un épervier et un grand duc empaillés, tous tué par une ligne à très haute tension. <img data-src=" />





Je comprend pas pourquoi j’ai été quoté, c’est pas moi qui ai dit ça <img data-src=" />


Le 17/06/2013 à 15h 43







Antonio59200 a écrit :



Quel est la meilleur alternative alors? (évidement, non polluante, recyclable a 95% ou le facteur main d’oeuvre humaine est négligeable).





Réacteur à sel fondu au Thorium.

Petit bonus : cela permet même de recycler les déchets nucléaires des centrales nucléaire à eau lourde.

Pourquoi pas développé plus tôt? Parce que ça ne produit pas d’Urianium enrichi.


Le 17/06/2013 à 21h 04







methos1435 a écrit :



Peut être attendent ils la prochaine grosse MAJ de WP8.





Oui cela parait logique, WP8 doit être sur une version plus intégré à l’OS de Skype maintenant.


Le 17/06/2013 à 11h 40







gaten a écrit :



Y’a encore des gens qui utilisent les SMS lorsqu’ils ont du Wifi ?





C’est vrai qu’avec Facebook Messenger, Google Handouts, Whatsapp, Skype et consor, on a l’embarras du choix.

Cependant, ce genre de services devraient être plus souvent disponible. D’ailleurs Sosh ils pourraient faire la même chose, ils ont LibOn, il suffit d’utiliser LibOn pour la France, on verra s’ils le font.


Le 14/06/2013 à 18h 11







Gleipnir a écrit :



J’ai un peu de mal à capter (hohoho) comment ce genre de choses peut se monétiser, mais je n’y connais pas grand chose en télécom.



Pour simplifier à l’extrême, et pardon d’avance pour mon ignorance en la matière : qu’est-ce qui justifie que les opérateurs doivent payer une redevance pour utiliser ces fréquences ? L’État produit-il quelque chose, ou c’est simplement pour éviter que les fréquences soient utilisés n’importe comment tout en permettant de renflouer les caisses facilement au passage ?





Il faut voir ça comme un territoire dont le propriétaire serait l’état.

L’état ne produit rien, mais loue son bien.


Le 14/06/2013 à 15h 06

Mwai, dans tous les cas la frontière PC/Tablette sera de plus en plus floue d’ici quelques années, donc tous les cabinets d’analyse diront qu’ils avaient raison en précisant à postériori ce qu’ils appelaient Tablette et PC.. <img data-src=" />

Le 14/06/2013 à 11h 58







zaecken a écrit :



Je comprends bien que les opérateurs doivent rentabiliser leurs investissements. Mais comme le dit GUromain, cette offre 4G est inadpatée à la vie réelle.



En 3G, (et avec tous les problèmes de couverture réseau) on ne dépense pas énormément de Go sur le forfait.

Ici en 4G, avec du 100Mo/s, on regarde plusieurs vidéos, télécharge des jeux, musiques, vidéos, (en VOD, un DVD correspond à 2Go environ, donc en HD j’ose pas imaginer) et pouff plus de forfait ou bien une facture à 1000 euros???

Pas pour moi…



Pour l’instant c’est surtout du marketing et le seul moyen de se démarquer de free notamment.





Le débit, cela ne va pas te forcer à télécharger plus.

Moi j’aimerai charger les cartes instantanément, les images des applis online etc. Même avec un “usage 3G” la 4G apporte un meilleur confort. J’ai testé la 4G chez EE au UK, et c’est vraiment agréable, tout est instantané (avec un iPhone 5 tout du moins).

En plus du débit tu as la latence, plus faible qui participe à cette impression de réactivité.

Et pour couronner le tout, la 4G permet aussi d’être plus économe en terme de consommation énergétique.


Le 13/06/2013 à 17h 02







lincruste a écrit :



Le noyau ils s’en branlent un peu, s’ils doivent pourrir du code se serait plutôt l’implémentation d’IPSec, comme le soupçonnaient les mecs qui bossent sur OpenBSD









geekounet85 a écrit :



tu as suivis un peu l’affaire OpenBSD VS FBI?

voilà le résultat! hou que ça fait peur du code libre à la portée du moindre quidam venu!!!<img data-src=" />





Comme quoi, tout est possible <img data-src=" />


Le 13/06/2013 à 16h 34







earth01 a écrit :



C’est peut-être l’évènement qui conduira de plus en plus de monde à chiffrer ses données et ses communications et à passer sous linux (si tenté que la NSA n’ai pas non plus infiltrée le hardware en plus du software…).





Ils ont aussi sans doute du contribuer au code de Linux. Quand bien même une centaine de personne est capable de relire et de comprendre le code de l’OS, une ou plusieurs d’entre elles pourraient être de mèche <img data-src=" /> (si on pousse la parano jusqu’au bout, ça parait pas plus délirant)


Le 13/06/2013 à 13h 35







IAmNotANumber a écrit :



Thank you Captain Obvious ! <img data-src=" />





Au vu des commentaires et surtout de l’article, j’avais l’impression qu’il fallait enfoncer des portes ouvertes.