votre avatar

brazomyna

est avec nous depuis le 7 octobre 2011 ❤️

7015 commentaires

Le 02/11/2012 à 15h 25







paradise a écrit :



On va encore en trouver, au moins ? Ou bien le 4” et plus va être encore une fois une norme obligatoire, façon 169 pour les écrans ?





Il y en a toujours pléthore, ce n’est pas parce que les modèles qui font régulièrement la une des geeko-sites sont tous 4 pouces qu’il n’y a que ceux là qui sont produits et se vendent.



A titre perso, ceci dit, je trouve qu’une fois qu’on a essayé un 4 pouces, le confort procuré fait qu’il est impossible de revenir en arrière.


Le 02/11/2012 à 14h 40







arobase40 a écrit :



Faut pas déconner non plus… Sauf si ton portefeuille contient plusieurs (dizaines ?) milliers d’euro en petites coupures





Je bosse au Luxembourg caypourça <img data-src=" />


Le 02/11/2012 à 14h 19







arobase40 a écrit :



(l)es poches intérieures de ta veste…



Ça sert à mettre son portefeuille





<img data-src=" /> quelle horreur <img data-src=" />



Une poche intérieure avec un portefeuille, ça te fais l’équivalent vu de dehors d’un demi implant mamaire.


Le 02/11/2012 à 14h 17







snoopy1492 a écrit :



Au début je croyais que les quelques évolutions par rapport au premier ne méritait pas le changement, mais il est vraiment mieux!











lexos a écrit :



J’avais le note avant….le nouveau l’écrase littéralement.







J’aimerais des détails, car si j’opte pour un ‘note’, il me reste l’option “j’échange mon S3 d’occaze contre un note 1 d’occaze” (et l’avantage c’est que c’est sans risque de friction avec les hautes instances féminines du couple <img data-src=" />)



Donc si le note2 ne se justifiait pas pour moi, le note 1 serait envisagé. Donc selon vous, pourquoi je devrais prendre le note 2 ?



Le 02/11/2012 à 14h 13







127.0.0.1 a écrit :



14 millions d’iPad ce trimestre

3 millions de Nexus 7 depuis juillet

3 millions de Galaxy Note II depuis fin septembre

4 millions de licences Windows 8 en 4 jours



7 milliards de terriens



C’est ça la crise ?



<img data-src=" />





<img data-src=" />


Le 02/11/2012 à 13h 28

Ayant un galaxy s3 qui m’incite à délaisser petit à petit mon Asus transformer, je me demande s’il ne serait pas bénéfique au final que je remplace le tout pas un note2.



D’autant que mon téléphone me sert à peu près jamais à téléphoner (et quand c’est le cas, en général c’est via le kit bluetooth de la voiture). Le reste, si je fais 30 minutes par mois c’est un grand maximum.



Reste l’inconnue: le note2 rend-il le jeans baggy indispensable ou bien il est costar-proof également ?

Le 02/11/2012 à 13h 12







PCl a écrit :



Et on reste en 1280*800 en “espace de travail réellement disponible”. Sauf si on augmente la résolution utilisée par l’OS, mais visiblement avoir 1 pixel qui fait 1,qqch pixels à l’écran, ça fait plus du flou que du mieux.





Un OS récent est capable de ‘mesurer’ les choses qu’il a à afficher dans une mesure indépendante des pixels sous jacents, et de faire un rendu propre (= sans scaling dégeulasse) à partir du moment où les composants sont basés sur du vectoriel plutôt que du ‘bitmap like’.



Sauf erreur de ma part, MacOS est quant à lui parfaitement adapté de ce côté là. Tout comme à peu près tous les OS récents d’ailleurs (Windows &gt;= vista, Linux depuis 20 ans).



Et en HS:



iOS est par contre une bouse à ce niveau, Apple ayant naïvement pensé au départ que le nombre réduit de device ne justifierait pas une complexification de l’API pour les développeurs. La multiplication des devices et des résolutions (itruc, itruc mini, itruc retina, …) montre qu’ils ont tort.



Et si on veut pousser la comparaison avec Android, elle n’est pas à l’avantage de la pomme: Android propose en théorie une myriade de résolution différentes, mais en réalité avec juste 5 résolutions différentes (comme sur iOS), on a déjà couvert plus de 90% des devices en circulation. Et couvrir ces 5 résolutions (et les autres) est plus facile sur Android (qui propose des vrais outils pour ça) que sur iOS (qui n’en propose pas).



Le 02/11/2012 à 12h 02







hoaxyd_8 a écrit :



Sur cette photo Marc Rees a de faux airs de Bernard Laporte.





En parlant de porte…


Le 02/11/2012 à 11h 47

Oui enfin il y a d’autres solutions déjà mises en oeuvre. Genre les ‘picots’ sur la coque extérieure de certain téléphones.

Le 01/11/2012 à 21h 36







nikomimi a écrit :



Voyez plus cet objet comme un dock design quoi sa ne fait ni + ni - que sa.





Justement, ça fait pas forcément mieux qu’un autre dock design, et ça le fait plutôt moins bien (efficience énergétique, …).



Le 30/10/2012 à 15h 17







zogG a écrit :



La killer feature, c’est pas tellement le rechargement seul, c’est surtout quand c’est combiné avec un dispositif audio ou video. Tu poses ton telephone sur ta chaine hifi et le son est transféré + le rechargement.







Je ne vois toujours pas l’intérêt par rapport à un dock quelconque:





zogG a écrit :



La killer feature, c’est pas tellement le rechargement seul, c’est surtout quand c’est combiné avec un dispositif audio ou video. Tu poses ton telephone sur le dock et le son est transféré en wireless + le rechargement via le dock.







Bref, tu prends n’importe quel téléphone classique, tu achètes un dock de base et t’as les entrées / sorties qui vont bien dessus et un geste à peu près aussi simple pour y mettre ton téléphone. Genre pour un Galaxy S3 (je parle de ce que je connais), t’as des docks USB + charge + HDMI à 30€.


Le 30/10/2012 à 14h 38







bilbonsacquet a écrit :



Car au final, à la place de “picot” en contacts direct qui permettraient d’avoir un chargement efficace, on a une techno avec un rendement misérable (et les risques qu’il y a avec …)





Je suis assez d’accord.

On a quand même un service rendu qui est vraiment minime comparé à un système avec des ‘picots’ (©bilbonsacquet), pour des désavantages nets.



Bref, passé les 5 minutes de “whouaou, on est en plein star wars, c’est trop funny fanzy”, l’intérêt est à peu près nul. Ou alors faudra m’expliquer la killer feature de la chose.


Le 02/11/2012 à 11h 44







Cned a écrit :



enfin bref, il n’est pas non plus impossible que les 2 coexistent.





C’est exactement ça. C’est déjà le cas et ça le restera.

Tout comme les voitures n’ont pas remplacé tous les vélos, les deux ont vocation à coexister car chacun apporte ses avantages propres.





les utilisateurs les plus hardcore peuvent avoir une ligne fixe pour avoir un débit constant de malade…

et les utilisateurs lambda qui se servent principalement que du web ou des mails (facebook tout le tralala) peuvent bénéficier d’un accès mobile et simple d’utilisation



Oui et non, car l’accès résidentiel fixe ne se limite pas à l’usage du web ou du net ; par exemple l’ADSL a aussi permis l’arrivée de services tiers (TV, VOD, …). Typiquement le genre de service qui n’a aucun chance de voir le jour, car techniquement inadéquate, sur une archi mobile.





c’est déjà un peu en train de se passer, avec Free il y a de plus en plus de gens qui se servent de l’accès 3G comme connexion internet normale sur leur PC…



De plus en plus, oui. Mais d’une façon générale ce type d’utilisation reste très marginale et a vocation à atteindre relativement rapidement un seuil.



L’accès ‘mobile’ supportant mal la montée en charge, les coûts induits à partir d’une certaine masse critique d’utilisateurs deviennent exhorbitants (coût des antennes, génie civil, rareté des fréquences, …).



Donc le moment où on les technos mobiles pour l’accès au net ne peuvent plus être compétitives arrive très rapidement. Les offres commerciales s’en ressent donc forcément et les gens s’en détournent naturellement en optant pour la solution plus optimum (souvent = la moins chère) pour leur usage.


Le 02/11/2012 à 10h 36







Malsa a écrit :



quel intérêt d’avoir du 1gbps dès lors que ce seront déjà les terminaux qui limitent le débit pour du 100mbps..





On disait la même chose quant à l’ADSL il y a quelques années.



Ca fait juste partie de l’évolution des choses et des besoins.


Le 02/11/2012 à 08h 09







Cned a écrit :



je me demande si l’avenir de l’accès Internet (perso & pro) ne passera pas par ceci, largement plus facile et plus rapide à déployer que la fibre optique ou les cables qui vont dans chaque foyer…



n’a-t-on pas été un peu trop vite dans les décisions de fibrer partout?







Non, car l’accès résidentiel fixe a un atout majeur comparé à celui sans fil: la bande passante n’est pas partagée entre tous les utilisateurs. Quand tu as une fibre, tu peux mettre 1Gbits/s par foyer si tu en as envie, et si ton voisin pompe à bloc sur la mule 24h/24, il n’y a pas de raison que ça INpacte ton accès à toi.





Les seules limites seront:





  • celle de ta connexion entre ta maison et ton noeud de raccordement. Mais la fibre, comme pour l’actuelle boucle de cuivre à se débuts, a de quoi voir venir pour plusieurs décennies avant de saturer (on arrive à atteindre le Tbits/s sur un seul brin de nos jours).



  • celle du lien entre ton NRO et le reste du backbone de ton FAI. Mais ce lien là étant unique pour des (dizaines de) milliers d’utilisateurs, il est en proportion extrêmement peu cher à faire évoluer au fur et à mesure des besoins que quand on doit aller faire évoluer les liens entre chaque abonné et leur lieu de raccordement (en gros: 15 000 noeuds en France vs. 20 millions de foyers, un facteur &gt; 1000, juste en nombre).



    Quand tu as un accès wireless, tu partages une bande passante totale (genre - admettons d’ici quelques années - 10 GBits/s) entre l’ensemble des utilisateurs qui sont connectés à cette antenne, soit les même milliers d’utilisateurs. Avec l’évolution continue des besoins, la saturation arrivera extrêmement vite, et ne sera au final pas viable pour les opérateurs.



    D’une façon générale, ce qu’il faut voir c’est que l’accès fibre résidentiel, c’est une techno sur le (très) long terme ; on la pose une fois pour l’exploiter sur 30 ans. Normal à la fois que l’investissement de départ coûte très cher et que ça ne se fasse pas en un claquement de doigts.

    Quand il a fallu poser la boucle locale cuivre à l’époque, c’était exactement la même chose et il a fallu des années ; nos ancêtres avaient juste un rapport au temps un peu moins délirant que nous qui voulons tout avant même qu’on ait commencé (et si possible que ce soit l’Etat qui paye, tout en baissant nos impôts, mais c’est un autre débat).



    Je passe également volontairement sur les problématiques pro, qui n’ont rien à voir avec le perso et qui posent des contraintes supplémentaires en terme de disponibilité, débit garanti, … qu’un accès wireless ne pourra pas offrir comme la fait un accès fixe.


Le 01/11/2012 à 22h 52







sioowan a écrit :



C’est sur. C’est ce qui m’empêche encore de baisser mon forfait





Après, il y a ‘situation critique’ et ‘situation critique’. Si le risque c’est de pas pouvoir mettre à jour son status FesseBook, je pense qu’on peut y survivre quelques heures, voir quelques jours.



Si par contre tu bosses dans l’IT et que t’as quelques responsabilités et potentiellement des ‘urgences’ qui peuvent arriver, avoir un backup supplémentaire ‘au cas où’, ça a déjà plus de sens.


Le 01/11/2012 à 22h 35







sioowan a écrit :



Donc si je comprends bien tu n’as chargé que 50Mo avec le réseau de l’opérateur. Donc tu as de la marge puisque le wifi n’est pas pris en compte par l’opérateur. Enfin j’espère…





Non, cette fois-là, j’ai pompé la totalité en 3G car j’avais pas de WiFi dans mon lieu de vacances.



Ca reste un cas exceptionnel, il y en a eu quelques autres, mais rarement. Genre l’intervention inopinée et urgente pour le boulot, au milieu de nulle part et avec pour seul moyen de se connecter mon forfait data perso.



Mais c’est justement dans les situations ‘exceptionnelles’ que je n’ai pas envie d’être embêté par ce genre de problématique annexe.







Le 01/11/2012 à 21h 01







sioowan a écrit :



Pour le moment j’en suis à 252Mo et je fais beaucoup de choses avec mon tel.





J’en suis à 500Mo avec le Wifi 90% du temps où je suis dans un endroit ‘fixe’ habituel (maison, boulot, …).



Il m’a suffit d’une connexion d’une poignée d’heures lors des dernières vacances, via le laptop en mode modem, pour manger d’un coup 800Mo à cause de deux ou trois petites choses oubliées négligemment en background sur mon ordi.



Donc 1Go, ok la plupart du temps, mais je préfère garder de la marge ‘le jour où’, dans mon cas.


Le 01/11/2012 à 19h 18







Latios a écrit :



on m’a traité de débile <img data-src=" />





C’est du lourd celui-là, faut le mettre en vitrine, ça court plus tant que ça les rues un specimen pareil <img data-src=" />


Le 01/11/2012 à 19h 17







pti_pingu a écrit :



Dans la mesure où le NRA-ZO rajoute d’autres NRA plus proche des habitations bien sur que si, vu qu’on rajoute un niveau de finesse dans la boucle locale. Il y aura des travaux de génie civile, mais bien moindre que si on s’attaquait à fibrer toute les habitations paumés. Bon par contre, je ne dis pas que c’est la panacée, mais qu’il existe quand même un moyen d’augmenter le débit tout en évitant trop de génie civil.





Et ce que je dis, c’est que 4G la 4G ne change rien aux coûts par rapport à la situation actuelle où on a la même densité de NRA que grosso modo d’antennes. Les coûts en génie civil seront à minima les même.





Le problème de la bande passante disponible se pose non pas dans les zones péri-urbaines et rurales, mais dans les centres urbains.



Mais si tu commence à utiliser les antennes comme des points d’accès fixe, tu te retrouveras dans une situation encore pire que l’actuelle situation des mobiles dans les villes. Le wireless n’est pas fait pour supporter la moindre montée en charge que requiert un accès fixe.





plus la fréquence est haute meilleurs est la pénétration



C’est l’inverse.



par contre la portée est moindre

La portée est corrélée avec la pénétration.





Il reste encore des bandes entre 6.4 et 10Ghz qui pourrait être exploitées



Non, non, et re-non. Tu ne peux pas exploiter de telles fréquences en dehors d’une portée extrêmement courte (10m) ou en espace libre (ie. pas le moindre obstacle entre la source et toi). C’est pas une question de capcité de discrimintation, c’est une question qu’au bout de 100m ton signal sera plus faible que ton bruit. Donc aucune possibilité physique de pouvoir exploiter quoi que ce soit.





Les possibilités sont encore larges, notamment parce qu’il reste une partie du spectre en 6.4 et 10 qui peut être exploité



Je ne peux pas te dire mieux que ‘non’ à nouveau.





sachant que les autres techno, notamment militaire peuvent travailler sur des fréquences supérieurs du fait des moyens techniques



Moyen techniques illimités ou pas, tu ne peux pas détourner les lois de la physique. Non à nouveau.

Niveau analogie, t’es en train de me dire qu’il suffit d’un peu de volonté et de pognon pour pouvoir dépasser la vitesse de la lumière.





il faudra aussi se posé la question à un moment de poser sur la table la problématique du spectre et de tout refonder afin d’optimiser au mieux son usage



C’est ce que je dis ; c’est même indispensable puisque c’est à peu près la seule marge de manoeuvre qui reste.

Mais ça prend énormément de temps.





les bandes on forcément une taille limite (comme tout élément physique). Mais le fait est qu’on est loin d’atteindre les limites d’usage des fréquences, qu’il est possible de faire des canaux plus petits



T’es encore en train de m’inventer des demis fréquences. Non.





on décrète aujourd’hui qu’il faut 10 MHz en 2 bandes de 5Mhz pour assurer une transmission stable et efficiente.



Non, on sait qu’il faut 10Mhz pour écouler x quantité de trafic.





Si tu prends l’exemple de la 4G, les terminaux doivent s’adapter à 5 largeur spectral.

Ils ont donc la possibilité d’utiliser une plus large bande spectrale en même temps, mais uniquement si celle supplémentaire n’est pas déjà utilsiée par d’autres. Tu n’inventes pas un nouveau spectre, tu laisses juste la possibilité d’utiliser d’autres canaux si au même moment ils n’étaient pas utilsiés.





C’est avec l’évolution des DSP et les processeurs de signaux qu’il sera possible de le faire



A la marge, pour toutes les raisons précisées avant (cf. entropie et cie.)





et parallèlement également, d’agir sur les largeurs spectral des bandes de transmissions)



Et re-non.


Le 01/11/2012 à 16h 34







pti_pingu a écrit :



La technique du NRA-ZO, voilà le terme et plusieurs fois abordé sur PCI





C’est ce que je dis, ça n’apporte rien qu’on ne puisse déjà faire avec ce qu’on a déjà, à savoir les NRA déjà en place. L’arrivée de la 4G ne bouleverse pas la donne pour l’accès au très haut débit pour tout le territoire.







pti_pingu a écrit :



Sauf que tu te bases sur le fait que toute la possibilité du spectre électromagnétique à déjà été exploité.





Relis mes posts précédents: on ne va pas ‘inventer’ de nouvelles fréquences, de la même façon qu’en matière de lumière on n’invente pas de nouvelles couleurs. Et les fréquences exploitables le sont déjà (cf. la notion de ‘portée’ que j’ai expliqué avant).





Or, en partant sur la réutilisation des bandes usagés



C’est l’unique solution. Et c’est l’objet de mon proemier posr.





l’agrégation, le multiplexage temporel et spatial, l’ouverture d’autres bandes (la 5 Ghz, 5.6 et 6.4 et de futures autres)



Déjà répondu: l’aggrégation ne créé rien, les bandes &gt;5GHz ne sont pas exploitables au delà de quelques mètres.





l’amélioration des DSP, la marge de manoeuvre permettant l’augmentation des débits



Déjà repondu.





du nombre de connecté simultanément et aussi du volume en fenêtre de temps constantes à encore de bonne possibilité de croissance.



Dix fois 1Mbits/s = une bande passante consommé de 10Mbits/s, rien de nouveau la dedans ; si tu veux 20 connectés, il te faut deux fois plus de bande passante, et on revient au points précédents.





On en est pas encore arrivé dans le partage du spectre au même point de stagnation que la finesse de gravure qui sera bientôt atteinte (tout du moins pour la gravure 2D).



Je re-répète: on est arrivé relativement proche des limites théoriques de l’efficience des communications. Et on sait déjà le seuil qui reste et restera indépassable. Tout comme un ping entre paris et pékin ne pourra jamais descendre sous les 50ms du fait de la distance et de la limite de la vitesse de la lumière.



Alors on va peut-être gagner encore -admettons- un facteur 2 avec toutes les optimisations du monde en grignotant ça et là (les fameux gâchis évoqués ci-avant), mais clairement pas plus. La seule solution sera de décider d’allouer plus de fréquences, et … on en revient aux points précédents.



D’une façon générale, les transmissions sont régies par des limites physiques indépassables, comme dans de nombreux autres domaines (genre la vitesse de déplacement est borné par la vitesse de la lumière). Et on n’est pas loin des limites théoriques sur plusieurs aspects ; seul reste la bande de fréquence qu’on décide d’allouer à ces usages. Et comme la partie de cette bande capable d’être utilisée pour ces distances là est une denrée rare et déjà ultra-utilisée, toute réallocation en faveur des télécom est un processus complexe et extrêmement long.



Le 01/11/2012 à 15h 45







pti_pingu a écrit :



Effectivement, je cherche le nom exact de la techno





C’est celle là ou à la rigueur celle-là


Le 01/11/2012 à 15h 43







pti_pingu a écrit :



D’ailleurs dans le cas de la 4G Adv, il y a des travaux sur l’agrégation de bande





Et l’aggrégation de bande, ça consiste en gros à faire une ‘grosse bande’ unique en accolant plusieurs ‘petites bandes’ éparses.



Mais si t’as deux fois 5Mhz à accoler, tu finiras pas avec 200Mhz de largeur de bande maximum ; tu finiras au mieux avec 10MHz (et un epsilon d’optim gagnée sur le SNR, mais négligeable comparé au reste vu ce qu’on sait déjà faire et qu’on fait déjà (d’où la mention des turbo codes qui sont un fondement là dedans) ).



Le 01/11/2012 à 15h 35







pti_pingu a écrit :



on ne vas pas tirer une fibre du NRA vers chaque habitant des patelins paumés. Par contre, le cable existe déjà (le cuivre)





A répartition éauivalente sur le territoire, ce cable là aura des longueurs identiques à celles qu’on a déjà entre un NRA et un abonné ; entre 0km et 8km. Et on en reviendra exactement à la même problématique qu’actuellement pour le déploiement de la fibre: il faut changer l’ensemble de la sous boucle entre chaque abonné et le premier noeud de raccordement.





alors sera mis en place la techno Re-ADSL qui permet d’étendre les capacités et d’augmenter le débit cette fois ci chez les particuliers



<img data-src=" /> tu ne sais manifestement pas ce qu’est le Re-ADSL


Le 01/11/2012 à 15h 30







pti_pingu a écrit :



Mais c’est justement sur ce seuil qu’agisse les DSP (en accompagnement des algos de correction).







  1. Et ce que je dis c’est que ce seuil est borné par l’entropie du message, et qu’on n’en est pas si loin.





    Autrement dis, dès lors que les DSP évolueront, que le débit ou la bande passante augmenterai



  2. La bande passante maximale théorique (équivalent au ‘volumes transmissibles par unité de temps’) est fonction de la largeur de bande de fréquence que tu utilises.



    Et donc si tu ne peux plus gagner grand chose du côté du point 1), ta seule solution est de jouer sur le point 2).




Le 01/11/2012 à 15h 18







pti_pingu a écrit :



<img data-src=" />, car de toute façon on parle de rééquiper des antennes existantes





Une antenne = 100km2.



Soit en très gros 5 000 à 15 000 répartis sur tout le territoire. Ca ne te rappelle pas quelque chose ce genre de proportions ?



Gagné: on a le même ordre de grandeur que … celui des NRA.



Donc le déploiement revient à un équivalent de l’effort de fibrer tous les NRA de France (chose déjà passablement faite) ; rien à voir avec l’effort de fibrer tous les habitants (le “delta” d’effort quand on parle de fibrer la france entière).



Le 01/11/2012 à 15h 12







pti_pingu a écrit :



Et bien avec le numérique, c’est exactement le même but, mais où le discriminant est l’UC et les DSP qui se charge de virer le bruit et qui s’améliore tout doucement.





L’optimisation ne permet pas de gagner en bande passante. Elle permet juste de gâcher de moins en moins de bande passante, sachant que quand on a atteint ‘zéro gachis’, ça s’appelle l’entropie du message.



Le problème est que les technologies récentes (notamment depuis la 3G et les turbo codes) ont permis de s’approcher des limites de la possibilité d’optimiser. Il ne reste donc pas 36 solutions ; augmenter la largeur de la bande utilisée, le reste ne sera que peu significatif.



Le 01/11/2012 à 15h 02







pti_pingu a écrit :



Oui, enfin faut quand même tirer une fibre jusqu’à l’antenne et le BTS, donc bon, si déjà y’a la fibre dessus, y’a toujours moyen de mettre en place une techno FTT-LA en cable cuivre jusqu’au résidents du coin paumé, non? <img data-src=" />





A la pelle, la pioche, et les coûts induits près <img data-src=" />


Le 01/11/2012 à 14h 57







TheStig a écrit :



Étant donné que les fréquences demandées tournent apparemment vers les 100MHz





Non, c’est la largeur de bande, 100MHz, pas son ‘emplacement’ dans le spectre.



Dit autrement, une bande de largeur 100Mhz, c’est dire on prend 100MHz à partir de telle fréquence et jusqu’à telle fréquence. Genre si tu commences à 800MHz, tu finis à 900MHz, si tu commences à 100Mhz, tu prends tout jusqu’à 200Mhz, etc.



Par exemple, l’ensemble de la radio analogique en France, c’est 87,5 – 108 MHz, soit 21.5MHz de largeur de bande.



Sachant qu’en plus touts les ‘emplacements’ ne sont pas égaux certains sont très bons pour traverser les obstacles (genre 800MHz), et tout le reste beaucoup, beaucoup moins.



Autre comparaison, l’ensemble du spectre alloué à la radio analogique, c’est

C’est l’équivalent des ‘5MHz’ dont on a parlé lorsque les opérateurs se les sont arrachés a grand coups de milliards pour les licences ‘4G’.



Le 01/11/2012 à 14h 54







coket a écrit :



N’est-ce pas un faux problème???





Ben sauf à être capable d’inventer des bandes de fréquences qui n’existent pas ou de modifier quelques préceptes fondamentaux de l’eléctromagnétique qui ont cours depuis plusieurs siècles, non, c’est pas un faux problème.



Le 01/11/2012 à 14h 46







WereWindle a écrit :



je vote pour les micro onde et les baby-phones ^^





Déjà pris, c’est la fréquence fourre toutgros bordel réservée aux usages domestiques





Pour la comparaison bagnolesque, cette bande là, c’est un peu l’A6 un jour de 15 août en équivalent télécom.



Le 01/11/2012 à 14h 20







jinge a écrit :



Après c’est toujours aussi une question de coût et donc de prix.





Souvent vrai, mais ici c’est pas l’unique obstacle.



Déployer, c’est également énormément de temps nécessaire pour libérer des fréquences qu’on pourra réattribuer à cette techno.



Pour la 3.9G qu’on va nous vendre à partir de 2013 en France, il a fallu trouver des fréquences dispo. Et pour en avoir de dispo on a dû lancer la TNT puis attendre la fin définitive de la TV analogique.



La largeur de bande pour la LTE advanced est encore bien plus grosse que l’actuelle 3.9G (hé oui, pas de miracle, plus on veut du débit, plus il faut une bande large). Donc il va falloir les trouver quelque part, et ça ne se fera pas en deux minutes. Forcément.



Le 02/11/2012 à 08h 53







carbier a écrit :



Euh si c’est la seule attestation qu’ils ont en mains, il va falloir qu’ils s’attendent à un procès pas forcément à leur avantage…





Au contraire, pour pouvoir retenir la diffamation, il faut que le plaignant prouve que l’auteur était de mauvaise foi et avait pour but de nuire avec un traitement partial voir (volontairement) fallacieux de l’information.



La ça va être d’autant plus complexe pour le plaignant de prouver la mauvaise foi, puisque l’auteur apporte des éléments matériels permettant de démontrer sa bonne foi.



Niveau procès, SFR est mort d’avance. Mais ça à la limite il s’en foutent car ce n’était pas l’objectif. Le vrai objectif c’était d’intimider.

Mais double ratage, car en plus d’une intimidation qui fait un flop, il se ramasse un bon gros bad buzz, avec une médiatisation qui a déjà atteint des médias généralistes à portée nationale.



gg SFR.


Le 01/11/2012 à 07h 43

Il daut croire que tous les moyens sont bons pour intimider et pas sûr que certains soient beaucoup plus vertueux que d’autres. Free avait même déjà porté plainte contre un de ses propres abonnés pour diffamation pour un message (troll ?) un peu agressif posté sur un forum.



Ceci dit, pour le coup, gg universFreebox : le nouvel obs et l’expansion parlent de vous ainsi qu’une belle pelletée de sites plus ou moins spécialisés. Le bruit médiatique est à priori exactement ce que SFR devait redouter.

Le 02/11/2012 à 08h 25







animehq a écrit :



A mon avis on ne peut pas calculer comme cela, l’arm peut être 60% plus performant que l’atom dans ce cas précis (avec un os et un navigateur particulièrement optimisé pour lui) et être nettement moins performants dans une autre activité.





Certes, c’est ce que je disais quand je parlais de résultats ‘forcément parcellaires’.

Néanmoins d’une autre côté, faire tourner des tests javascript implique de faire tourner derrière un interpréteur, ce me paraît relativement étendu comme bench puisque l’interpéteur va mettre en oeuvre quand même un panel assez varié d’usages du CPU (à mon sens).







brokensoul a écrit :



Attends peut être que le A15 soit testé sur autre chose que du javascript





Oui, c’est ce que j’attends. Mais si effectivement on se retrouve avec une solution de l’ampleur d’un Core2 Duo pour une consommation faible et surtout du vrai fanless intégrable dans un chassis ridicule, le linuxien que je suis (et qui se fout donc d’être en x86) y voit là une belle opportunité de faire de l’ultra book qui déchire et parfaitement confortable pour mes utilisations (bureautique, développement, … mais pas de jeu).



Le 31/10/2012 à 19h 42

Dans ma longue quête de définir les performances globales d’un CPU ARM comparé à un CPU x86 ‘classique’, je lis cet article qui me dit grosso modo que ce dual core cortex A15 ferait à la très grosse louche un +60% par rapport à un Atom N570.



Un petit détour par cpubenchmark (cette page) me donne un indice de perf pour l’Atom N570 de 639 … heu … unités.



Donc si on prend ces deux benchs/indices (forcément parcellaires) comme première approcimation, on a un cortex A15 qui devrait se situer aux alentours des CPUs ayant un ‘indice cpubenchmark’ de 1022.



Ca tombe bien, ça correspond à un Core2 Duo T5600 @ 1.83GHz, soit exactement le CPU que j’avais dans mon laptop précédent, et donc que je connais bien.



Dois-je en conclure que si demain je me trouve un device quelconque basé sur une archi cortex A15 dual core (genre une nexus 10 ou ce ChromeBook), que je me débrouille pour y planter dessus une petite Ubuntu (ou une copine), j’aurai un device avec ‘grosso modo’ les même perfs que mon ancien laptop, le tout totalement fanless et 6 à 8 heures d’autonomie sans forcer ?



Ça me paraît invraisemblable.

Vos avis ?

Le 01/11/2012 à 23h 01







Branflakes a écrit :



Ce mec est irrécupérable, mais je continue à le lire pour voir jusqu’où il descendra.





Le truc c’est qu’il n’atteindra le fond que quand on arrêtera de le lire <img data-src=" />


Le 01/11/2012 à 01h 15







mukumi a écrit :



Du 320x240 en 8 pouces, c’est parfait pour designer des tuiles windows 8<img data-src=" />





Microsoft aurait dû y penser, y’aurait pas eu de souci pour porter minecraft et ses gros pixels, aussi. <img data-src=" />


Le 31/10/2012 à 10h 01







snoopy1492 a écrit :



SI les apps ne sont pas essentielles, Go nexus 7, il n’y a pas de meilleur rapport qualité prix.





Lol.



Le store de Google est désormais plus fourni que celui d’Apple, mais bien entendu, la nexus 7 est à la traine par rapport à l’iPad <img data-src=" />


Le 31/10/2012 à 19h 27







Sariote a écrit :



une baraques à frites





Pas compris.



Tu nous refais la même avec des voitures, des garages, des moteurs, etc… ?

Ça devrait mieux passer.



Le 31/10/2012 à 15h 35







canti a écrit :



/sarcasme ? <img data-src=" />





<img data-src=" /> avec la mention de java dans le 2ème post, on est déjà passé au /troll tendance pêche à la dynamite.



On se refait pas, hein.


Le 30/10/2012 à 18h 12







darkdestiny a écrit :



Il y a aussi tout comme sur Android des problèmes de qualités des applications, mais surtout de fiabilité et de performances.





Oui, enfin c’est un peu pareil quel que soit le store ; tu ne peux pas avoir que des applications parfaites.



L’avantage de Microsoft à ce niveau est que l’environnement de développement n’est pas nouveau pour les développeurs, puisque c’est (grosso modo) déjà celui utilisé depuis longtemps pour coder sur d’autres plateformes de la boite.







Lebaronrouge77 a écrit :



Après on rentre dans un cercle vicieux. Le store est vide car il n’y a pas assez de monde sous Windows Phone et donc les développeurs ont peurs de ne pas trouver leur public. Et ce public ne vient pas car le store est vide.





Sauf que là dans tous les cas, le store sera plein d’utilisateurs de windows 8, situation inédite en comparaison de celles qu’on rencontré la concurrence dans le mobile.





Le 30/10/2012 à 18h 00







snoopy1492 a écrit :



Cela va surement changé avec windows 8 dispo, mais je continue de dire que le store windows phone est bien loin des deux autres à l’heure actuelle.





Sur le fond on est d’accord. Ce qu’il manque c’est justement de dire que les choses sont amenées à évoluer rapidement.



Et pas ‘rapidement comme les débuts d’Android à l’époque’, mais d’autant plus rapidement que la Microsoft embarque potentiellement les ‘développeurs desktop’ dans l’aventure, développeurs infiniment plus nombreux que ceux de toutes les plateformes mobiles réunies. Le tout avec à peu près zéro temps pour monter en compétence (la plateforme, le langage, etc… sont déjà assimilés et utilisés concrètement depuis un bon moment). Une paille.



Donc oui, mentionner que le store est pour le moment moins fourni, ok. Mais ça doit aller de pair avec le reste.



Le 30/10/2012 à 17h 18







snoopy1492 a écrit :



En même temps on ne demande pas à un journaliste de sortir sa boule de cristal et d’imaginer ce que pourra être l’écosystème WP8 dans 6 mois…





Il pourraient mentionner deux faits concret concernant:




  1. le nombre d’applis est déjà très important et couvre à peu près tous les besoins.

  2. l’atout de l’écosystème dans son ensemble et la sinergie qu’il a vocation à apporter avec le software côté desktop.



    Ca s’appelle être capable d’un minimum de mise en perspective ; on est loin de sortir la boule de cristal ; on apporte juste des éléments factuels supplémentaires pour mieux éclairer le contexte.





    il n’arrive pas à la cheville des autres pour l’instant. On verra bien dans 6 mois où on en est.



    Je ne peux que plussoyer ce qui a été dit avant ; sauf ton approche binaire, le store est très loin d’être vide au jour d’aujourd’hui, et couvre déjà un très large panel de besoins.



    Il faut sortir un peu le nez du guidon parfois: la course aux chiffres n’est pas forcément corrélée avec un réel bénéfice en terme de possibilités concrètes pour les utilisateurs.



    GNT dit souvent des conneries, mais pour une fois ils ont très bien résumé la situation:



    Chacun des deux derniers jours (depuis le lancement de Windows 8) a vu l’apparition de plus de 500 nouvelles applications et un bon nombre d’entre elles sont des applications de grande qualité qui pourront aider à valoriser la plate-forme Windows

    (…)

    à la mi-août, il n’y avait seulement que 530 applications dans le magasin d’applications Microsoft, puis 2000 en septembre et maintenant 9000. Ainsi, si ce chiffre n’est certes pas impressionnant, il faut plutôt s’attarder sur la très forte croissance observée. De très nombreux développeurs issus du monde Windows sont en effet très intéressés par le développement d’applications dans l’univers Windows, qui pourrait très vite s’imposer si Windows 8 est un succès.


Le 30/10/2012 à 15h 51

Deux articles lus en diagonale (engadget, the verge), deux fois la même conclusion: le téléphone est excellent, mais l’écosystème de Microsoft est un peu ‘court’ comparé aux autres.



Alors, certes ils ont raison au jour d’aujourd’hui (encore que le nombre d’applis déjà disponibles a de quoi contenter à peu près n’importe quel utilisateur moyen sauf si on joue a kikalaplugrosse), mais surtout ça me semble relever du manque total de vision à long terme de ce que va pouvoir devenir l’écosystème de Microsoft. D’ici quelques mois, les développeurs auront touché à Win8, et compris qu’il était dans leur intérêt de proposer des applis ‘Metro’ également pour le desktop (et donc pour les mobiels aussi). Et vont faire exploser le nombre d’applications disponibles.



Dans ce cadre, s’arrêter à dire “c’est pauvre au jour d’aujourd’hui” relève presque de la faute si on ne l’accompagne pas d’un “ça risque de changer énormément à (court et) moyen terme”.





Bref, déçu d’avoir juste un instantané sans la moindre mise en perspective. A ce titre, la comparaison avec le positionnement tarifaire de chez Google aurait limite été bien plus pertinent que leurs conclusions bien pauvres à mon goût. Parce que question épine dans le pied, Google se pose effectivement là.


Le 30/10/2012 à 14h 50







misterB a écrit :



ce n’est pas un os de dev pour les dev <img data-src=" /><img data-src=" />





Ca fait combien de temps que t’as pas approché un dév. ?







oposs a écrit :



Applications/Settings/Network and USB Utilities/USB Connection/Connect to Computer/Mount USB





Peut-être différent pour le S2, mais perso je connecte le câble et je ne fais … rien: ça se reconnait tout seul, comme une clef USB lambda.



Le 30/10/2012 à 14h 42







frikakwa a écrit :



Càd? <img data-src=" /> Développe! <img data-src=" />





Chez l’autre, c’est tellement dépouillé en fonctionnalités, que ça a au moins un avantage: tu risques pas de te perdre dedans <img data-src=" />


Le 30/10/2012 à 13h 20







canti a écrit :



pareil pour le coté “amener son telephone perso au boulot”





Pour ça, la première étape, c’est surtout le dual SIM associé à un matos haut de gamme.



Parce qu’actuellement, le marché est considéré comme un marché de niche et les rares téléphones dual SIM proposés sont au mieux du ‘moyen de gamme’, au pire du ‘ultra bas de gamme importé de Chine via ebay’.



Pourtant, je pense qu’entre les gens qui voudraient un seul téléphone pour le boulot et le perso + les quelques millions de travailleurs qui naviguent d’un pays à l’autre très régulièrement (typiquement les frontaliers), il y aurait peut-être là de quoi avoir une masse critique d’acheteurs pour un vrai bon téléphone.



En tout cas, l’arrivée du multi-compte sur les tablettes est une vraie bonne avancée et un vrai bon exemple d’amélioration relevant du “bon sens” (régulièrement évoqué ici même d’ailleurs).



Le 29/10/2012 à 19h 27







rc_outside a écrit :



Wow le B change de camp ?





Finies les ôdes à la popomme façon diatribe étalée sur 3 pages, qui devait nous expliquer comment Apple allait dominer le monde <img data-src=" />



Heureusement qu’il reste les archives <img data-src=" />


Le 29/10/2012 à 19h 26







pithiviers a écrit :



Le soucis, c’est que pour beaucoup d’esprits étriqués qu’on croise ici, l’amalgame est vite fait entre les utilisateurs normaux de produits apple qui doivent représenter au moins 95% de la clientèle et la poignée d’énergumènes qu’on voit dans les journaux à chaque sortie d’iBidules.





Le fond est vrai.



Ca n’empêche que proportionnellement, les fanboys (intégristes) apple sont bien plus importants que les fanboys d’une autre marque.



Les files d’attente devant les appStore sont un bon indicateur, mais pas seulement. Perso, j’ai jamais vu d’autocollant ‘Samsung’ ou ‘Nokia’ collé au cul d’un bagnole ou sur un attaché case. C’est loins d’être un cas exceptionnel du côté de la firme à la pomme.



Alors que ça ne constitue pas une majorité, c’est un fait. Mais qu’il y en ait plus chez la pomme qu’ailleurs, c’est également un fait avéré.