On va encore en trouver, au moins ? Ou bien le 4” et plus va être encore une fois une norme obligatoire, façon 16⁄9 pour les écrans ?
Il y en a toujours pléthore, ce n’est pas parce que les modèles qui font régulièrement la une des geeko-sites sont tous 4 pouces qu’il n’y a que ceux là qui sont produits et se vendent.
A titre perso, ceci dit, je trouve qu’une fois qu’on a essayé un 4 pouces, le confort procuré fait qu’il est impossible de revenir en arrière.
Le
02/11/2012 à
14h
40
arobase40 a écrit :
Faut pas déconner non plus… Sauf si ton portefeuille contient plusieurs (dizaines ?) milliers d’euro en petites coupures
Je bosse au Luxembourg caypourça " />
Le
02/11/2012 à
14h
19
arobase40 a écrit :
(l)es poches intérieures de ta veste…
Ça sert à mettre son portefeuille
" /> quelle horreur " />
Une poche intérieure avec un portefeuille, ça te fais l’équivalent vu de dehors d’un demi implant mamaire.
Le
02/11/2012 à
14h
17
snoopy1492 a écrit :
Au début je croyais que les quelques évolutions par rapport au premier ne méritait pas le changement, mais il est vraiment mieux!
lexos a écrit :
J’avais le note avant….le nouveau l’écrase littéralement.
J’aimerais des détails, car si j’opte pour un ‘note’, il me reste l’option “j’échange mon S3 d’occaze contre un note 1 d’occaze” (et l’avantage c’est que c’est sans risque de friction avec les hautes instances féminines du couple " />)
Donc si le note2 ne se justifiait pas pour moi, le note 1 serait envisagé. Donc selon vous, pourquoi je devrais prendre le note 2 ?
Le
02/11/2012 à
14h
13
127.0.0.1 a écrit :
14 millions d’iPad ce trimestre
3 millions de Nexus 7 depuis juillet
3 millions de Galaxy Note II depuis fin septembre
4 millions de licences Windows 8 en 4 jours
7 milliards de terriens
C’est ça la crise ?
" />
" />
Le
02/11/2012 à
13h
28
Ayant un galaxy s3 qui m’incite à délaisser petit à petit mon Asus transformer, je me demande s’il ne serait pas bénéfique au final que je remplace le tout pas un note2.
D’autant que mon téléphone me sert à peu près jamais à téléphoner (et quand c’est le cas, en général c’est via le kit bluetooth de la voiture). Le reste, si je fais 30 minutes par mois c’est un grand maximum.
Reste l’inconnue: le note2 rend-il le jeans baggy indispensable ou bien il est costar-proof également ?
Et on reste en 1280*800 en “espace de travail réellement disponible”. Sauf si on augmente la résolution utilisée par l’OS, mais visiblement avoir 1 pixel qui fait 1,qqch pixels à l’écran, ça fait plus du flou que du mieux.
Un OS récent est capable de ‘mesurer’ les choses qu’il a à afficher dans une mesure indépendante des pixels sous jacents, et de faire un rendu propre (= sans scaling dégeulasse) à partir du moment où les composants sont basés sur du vectoriel plutôt que du ‘bitmap like’.
Sauf erreur de ma part, MacOS est quant à lui parfaitement adapté de ce côté là. Tout comme à peu près tous les OS récents d’ailleurs (Windows >= vista, Linux depuis 20 ans).
Et en HS:
iOS est par contre une bouse à ce niveau, Apple ayant naïvement pensé au départ que le nombre réduit de device ne justifierait pas une complexification de l’API pour les développeurs. La multiplication des devices et des résolutions (itruc, itruc mini, itruc retina, …) montre qu’ils ont tort.
Et si on veut pousser la comparaison avec Android, elle n’est pas à l’avantage de la pomme: Android propose en théorie une myriade de résolution différentes, mais en réalité avec juste 5 résolutions différentes (comme sur iOS), on a déjà couvert plus de 90% des devices en circulation. Et couvrir ces 5 résolutions (et les autres) est plus facile sur Android (qui propose des vrais outils pour ça) que sur iOS (qui n’en propose pas).
Oui enfin il y a d’autres solutions déjà mises en oeuvre. Genre les ‘picots’ sur la coque extérieure de certain téléphones.
Le
01/11/2012 à
21h
36
nikomimi a écrit :
Voyez plus cet objet comme un dock design quoi sa ne fait ni + ni - que sa.
Justement, ça fait pas forcément mieux qu’un autre dock design, et ça le fait plutôt moins bien (efficience énergétique, …).
Le
30/10/2012 à
15h
17
zogG a écrit :
La killer feature, c’est pas tellement le rechargement seul, c’est surtout quand c’est combiné avec un dispositif audio ou video. Tu poses ton telephone sur ta chaine hifi et le son est transféré + le rechargement.
Je ne vois toujours pas l’intérêt par rapport à un dock quelconque:
zogG a écrit :
La killer feature, c’est pas tellement le rechargement seul, c’est surtout quand c’est combiné avec un dispositif audio ou video. Tu poses ton telephone sur le dock et le son est transféré en wireless + le rechargement via le dock.
Bref, tu prends n’importe quel téléphone classique, tu achètes un dock de base et t’as les entrées / sorties qui vont bien dessus et un geste à peu près aussi simple pour y mettre ton téléphone. Genre pour un Galaxy S3 (je parle de ce que je connais), t’as des docks USB + charge + HDMI à 30€.
Le
30/10/2012 à
14h
38
bilbonsacquet a écrit :
Car au final, à la place de “picot” en contacts direct qui permettraient d’avoir un chargement efficace, on a une techno avec un rendement misérable (et les risques qu’il y a avec …)
Bref, passé les 5 minutes de “whouaou, on est en plein star wars, c’est trop funny fanzy”, l’intérêt est à peu près nul. Ou alors faudra m’expliquer la killer feature de la chose.
enfin bref, il n’est pas non plus impossible que les 2 coexistent.
C’est exactement ça. C’est déjà le cas et ça le restera.
Tout comme les voitures n’ont pas remplacé tous les vélos, les deux ont vocation à coexister car chacun apporte ses avantages propres.
les utilisateurs les plus hardcore peuvent avoir une ligne fixe pour avoir un débit constant de malade…
et les utilisateurs lambda qui se servent principalement que du web ou des mails (facebook tout le tralala) peuvent bénéficier d’un accès mobile et simple d’utilisation
Oui et non, car l’accès résidentiel fixe ne se limite pas à l’usage du web ou du net ; par exemple l’ADSL a aussi permis l’arrivée de services tiers (TV, VOD, …). Typiquement le genre de service qui n’a aucun chance de voir le jour, car techniquement inadéquate, sur une archi mobile.
c’est déjà un peu en train de se passer, avec Free il y a de plus en plus de gens qui se servent de l’accès 3G comme connexion internet normale sur leur PC…
De plus en plus, oui. Mais d’une façon générale ce type d’utilisation reste très marginale et a vocation à atteindre relativement rapidement un seuil.
L’accès ‘mobile’ supportant mal la montée en charge, les coûts induits à partir d’une certaine masse critique d’utilisateurs deviennent exhorbitants (coût des antennes, génie civil, rareté des fréquences, …).
Donc le moment où on les technos mobiles pour l’accès au net ne peuvent plus être compétitives arrive très rapidement. Les offres commerciales s’en ressent donc forcément et les gens s’en détournent naturellement en optant pour la solution plus optimum (souvent = la moins chère) pour leur usage.
Le
02/11/2012 à
10h
36
Malsa a écrit :
quel intérêt d’avoir du 1gbps dès lors que ce seront déjà les terminaux qui limitent le débit pour du 100mbps..
On disait la même chose quant à l’ADSL il y a quelques années.
Ca fait juste partie de l’évolution des choses et des besoins.
Le
02/11/2012 à
08h
09
Cned a écrit :
je me demande si l’avenir de l’accès Internet (perso & pro) ne passera pas par ceci, largement plus facile et plus rapide à déployer que la fibre optique ou les cables qui vont dans chaque foyer…
n’a-t-on pas été un peu trop vite dans les décisions de fibrer partout?
Non, car l’accès résidentiel fixe a un atout majeur comparé à celui sans fil: la bande passante n’est pas partagée entre tous les utilisateurs. Quand tu as une fibre, tu peux mettre 1Gbits/s par foyer si tu en as envie, et si ton voisin pompe à bloc sur la mule 24h/24, il n’y a pas de raison que ça INpacte ton accès à toi.
Les seules limites seront:
celle de ta connexion entre ta maison et ton noeud de raccordement. Mais la fibre, comme pour l’actuelle boucle de cuivre à se débuts, a de quoi voir venir pour plusieurs décennies avant de saturer (on arrive à atteindre le Tbits/s sur un seul brin de nos jours).
celle du lien entre ton NRO et le reste du backbone de ton FAI. Mais ce lien là étant unique pour des (dizaines de) milliers d’utilisateurs, il est en proportion extrêmement peu cher à faire évoluer au fur et à mesure des besoins que quand on doit aller faire évoluer les liens entre chaque abonné et leur lieu de raccordement (en gros: 15 000 noeuds en France vs. 20 millions de foyers, un facteur > 1000, juste en nombre).
Quand tu as un accès wireless, tu partages une bande passante totale (genre - admettons d’ici quelques années - 10 GBits/s) entre l’ensemble des utilisateurs qui sont connectés à cette antenne, soit les même milliers d’utilisateurs. Avec l’évolution continue des besoins, la saturation arrivera extrêmement vite, et ne sera au final pas viable pour les opérateurs.
D’une façon générale, ce qu’il faut voir c’est que l’accès fibre résidentiel, c’est une techno sur le (très) long terme ; on la pose une fois pour l’exploiter sur 30 ans. Normal à la fois que l’investissement de départ coûte très cher et que ça ne se fasse pas en un claquement de doigts.
Quand il a fallu poser la boucle locale cuivre à l’époque, c’était exactement la même chose et il a fallu des années ; nos ancêtres avaient juste un rapport au temps un peu moins délirant que nous qui voulons tout avant même qu’on ait commencé (et si possible que ce soit l’Etat qui paye, tout en baissant nos impôts, mais c’est un autre débat).
Je passe également volontairement sur les problématiques pro, qui n’ont rien à voir avec le perso et qui posent des contraintes supplémentaires en terme de disponibilité, débit garanti, … qu’un accès wireless ne pourra pas offrir comme la fait un accès fixe.
Le
01/11/2012 à
22h
52
sioowan a écrit :
C’est sur. C’est ce qui m’empêche encore de baisser mon forfait
Après, il y a ‘situation critique’ et ‘situation critique’. Si le risque c’est de pas pouvoir mettre à jour son status FesseBook, je pense qu’on peut y survivre quelques heures, voir quelques jours.
Si par contre tu bosses dans l’IT et que t’as quelques responsabilités et potentiellement des ‘urgences’ qui peuvent arriver, avoir un backup supplémentaire ‘au cas où’, ça a déjà plus de sens.
Le
01/11/2012 à
22h
35
sioowan a écrit :
Donc si je comprends bien tu n’as chargé que 50Mo avec le réseau de l’opérateur. Donc tu as de la marge puisque le wifi n’est pas pris en compte par l’opérateur. Enfin j’espère…
Non, cette fois-là, j’ai pompé la totalité en 3G car j’avais pas de WiFi dans mon lieu de vacances.
Ca reste un cas exceptionnel, il y en a eu quelques autres, mais rarement. Genre l’intervention inopinée et urgente pour le boulot, au milieu de nulle part et avec pour seul moyen de se connecter mon forfait data perso.
Mais c’est justement dans les situations ‘exceptionnelles’ que je n’ai pas envie d’être embêté par ce genre de problématique annexe.
Le
01/11/2012 à
21h
01
sioowan a écrit :
Pour le moment j’en suis à 252Mo et je fais beaucoup de choses avec mon tel.
J’en suis à 500Mo avec le Wifi 90% du temps où je suis dans un endroit ‘fixe’ habituel (maison, boulot, …).
Il m’a suffit d’une connexion d’une poignée d’heures lors des dernières vacances, via le laptop en mode modem, pour manger d’un coup 800Mo à cause de deux ou trois petites choses oubliées négligemment en background sur mon ordi.
Donc 1Go, ok la plupart du temps, mais je préfère garder de la marge ‘le jour où’, dans mon cas.
C’est du lourd celui-là, faut le mettre en vitrine, ça court plus tant que ça les rues un specimen pareil " />
Le
01/11/2012 à
19h
17
pti_pingu a écrit :
Dans la mesure où le NRA-ZO rajoute d’autres NRA plus proche des habitations bien sur que si, vu qu’on rajoute un niveau de finesse dans la boucle locale. Il y aura des travaux de génie civile, mais bien moindre que si on s’attaquait à fibrer toute les habitations paumés. Bon par contre, je ne dis pas que c’est la panacée, mais qu’il existe quand même un moyen d’augmenter le débit tout en évitant trop de génie civil.
Et ce que je dis, c’est que 4G la 4G ne change rien aux coûts par rapport à la situation actuelle où on a la même densité de NRA que grosso modo d’antennes. Les coûts en génie civil seront à minima les même.
Le problème de la bande passante disponible se pose non pas dans les zones péri-urbaines et rurales, mais dans les centres urbains.
Mais si tu commence à utiliser les antennes comme des points d’accès fixe, tu te retrouveras dans une situation encore pire que l’actuelle situation des mobiles dans les villes. Le wireless n’est pas fait pour supporter la moindre montée en charge que requiert un accès fixe.
plus la fréquence est haute meilleurs est la pénétration
C’est l’inverse.
par contre la portée est moindre
La portée est corrélée avec la pénétration.
Il reste encore des bandes entre 6.4 et 10Ghz qui pourrait être exploitées
Non, non, et re-non. Tu ne peux pas exploiter de telles fréquences en dehors d’une portée extrêmement courte (10m) ou en espace libre (ie. pas le moindre obstacle entre la source et toi). C’est pas une question de capcité de discrimintation, c’est une question qu’au bout de 100m ton signal sera plus faible que ton bruit. Donc aucune possibilité physique de pouvoir exploiter quoi que ce soit.
Les possibilités sont encore larges, notamment parce qu’il reste une partie du spectre en 6.4 et 10 qui peut être exploité
Je ne peux pas te dire mieux que ‘non’ à nouveau.
sachant que les autres techno, notamment militaire peuvent travailler sur des fréquences supérieurs du fait des moyens techniques
Moyen techniques illimités ou pas, tu ne peux pas détourner les lois de la physique. Non à nouveau.
Niveau analogie, t’es en train de me dire qu’il suffit d’un peu de volonté et de pognon pour pouvoir dépasser la vitesse de la lumière.
il faudra aussi se posé la question à un moment de poser sur la table la problématique du spectre et de tout refonder afin d’optimiser au mieux son usage
C’est ce que je dis ; c’est même indispensable puisque c’est à peu près la seule marge de manoeuvre qui reste.
Mais ça prend énormément de temps.
les bandes on forcément une taille limite (comme tout élément physique). Mais le fait est qu’on est loin d’atteindre les limites d’usage des fréquences, qu’il est possible de faire des canaux plus petits
T’es encore en train de m’inventer des demis fréquences. Non.
on décrète aujourd’hui qu’il faut 10 MHz en 2 bandes de 5Mhz pour assurer une transmission stable et efficiente.
Non, on sait qu’il faut 10Mhz pour écouler x quantité de trafic.
Ils ont donc la possibilité d’utiliser une plus large bande spectrale en même temps, mais uniquement si celle supplémentaire n’est pas déjà utilsiée par d’autres. Tu n’inventes pas un nouveau spectre, tu laisses juste la possibilité d’utiliser d’autres canaux si au même moment ils n’étaient pas utilsiés.
C’est avec l’évolution des DSP et les processeurs de signaux qu’il sera possible de le faire
A la marge, pour toutes les raisons précisées avant (cf. entropie et cie.)
et parallèlement également, d’agir sur les largeurs spectral des bandes de transmissions)
Et re-non.
Le
01/11/2012 à
16h
34
pti_pingu a écrit :
La technique du NRA-ZO, voilà le terme et plusieurs fois abordé sur PCI
C’est ce que je dis, ça n’apporte rien qu’on ne puisse déjà faire avec ce qu’on a déjà, à savoir les NRA déjà en place. L’arrivée de la 4G ne bouleverse pas la donne pour l’accès au très haut débit pour tout le territoire.
pti_pingu a écrit :
Sauf que tu te bases sur le fait que toute la possibilité du spectre électromagnétique à déjà été exploité.
Relis mes posts précédents: on ne va pas ‘inventer’ de nouvelles fréquences, de la même façon qu’en matière de lumière on n’invente pas de nouvelles couleurs. Et les fréquences exploitables le sont déjà (cf. la notion de ‘portée’ que j’ai expliqué avant).
Or, en partant sur la réutilisation des bandes usagés
C’est l’unique solution. Et c’est l’objet de mon proemier posr.
l’agrégation, le multiplexage temporel et spatial, l’ouverture d’autres bandes (la 5 Ghz, 5.6 et 6.4 et de futures autres)
Déjà répondu: l’aggrégation ne créé rien, les bandes >5GHz ne sont pas exploitables au delà de quelques mètres.
l’amélioration des DSP, la marge de manoeuvre permettant l’augmentation des débits
Déjà repondu.
du nombre de connecté simultanément et aussi du volume en fenêtre de temps constantes à encore de bonne possibilité de croissance.
Dix fois 1Mbits/s = une bande passante consommé de 10Mbits/s, rien de nouveau la dedans ; si tu veux 20 connectés, il te faut deux fois plus de bande passante, et on revient au points précédents.
On en est pas encore arrivé dans le partage du spectre au même point de stagnation que la finesse de gravure qui sera bientôt atteinte (tout du moins pour la gravure 2D).
Je re-répète: on est arrivé relativement proche des limites théoriques de l’efficience des communications. Et on sait déjà le seuil qui reste et restera indépassable. Tout comme un ping entre paris et pékin ne pourra jamais descendre sous les 50ms du fait de la distance et de la limite de la vitesse de la lumière.
Alors on va peut-être gagner encore -admettons- un facteur 2 avec toutes les optimisations du monde en grignotant ça et là (les fameux gâchis évoqués ci-avant), mais clairement pas plus. La seule solution sera de décider d’allouer plus de fréquences, et … on en revient aux points précédents.
D’une façon générale, les transmissions sont régies par des limites physiques indépassables, comme dans de nombreux autres domaines (genre la vitesse de déplacement est borné par la vitesse de la lumière). Et on n’est pas loin des limites théoriques sur plusieurs aspects ; seul reste la bande de fréquence qu’on décide d’allouer à ces usages. Et comme la partie de cette bande capable d’être utilisée pour ces distances là est une denrée rare et déjà ultra-utilisée, toute réallocation en faveur des télécom est un processus complexe et extrêmement long.
Le
01/11/2012 à
15h
45
pti_pingu a écrit :
Effectivement, je cherche le nom exact de la techno
D’ailleurs dans le cas de la 4G Adv, il y a des travaux sur l’agrégation de bande
Et l’aggrégation de bande, ça consiste en gros à faire une ‘grosse bande’ unique en accolant plusieurs ‘petites bandes’ éparses.
Mais si t’as deux fois 5Mhz à accoler, tu finiras pas avec 200Mhz de largeur de bande maximum ; tu finiras au mieux avec 10MHz (et un epsilon d’optim gagnée sur le SNR, mais négligeable comparé au reste vu ce qu’on sait déjà faire et qu’on fait déjà (d’où la mention des turbo codes qui sont un fondement là dedans) ).
Le
01/11/2012 à
15h
35
pti_pingu a écrit :
on ne vas pas tirer une fibre du NRA vers chaque habitant des patelins paumés. Par contre, le cable existe déjà (le cuivre)
A répartition éauivalente sur le territoire, ce cable là aura des longueurs identiques à celles qu’on a déjà entre un NRA et un abonné ; entre 0km et 8km. Et on en reviendra exactement à la même problématique qu’actuellement pour le déploiement de la fibre: il faut changer l’ensemble de la sous boucle entre chaque abonné et le premier noeud de raccordement.
alors sera mis en place la techno Re-ADSL qui permet d’étendre les capacités et d’augmenter le débit cette fois ci chez les particuliers
" /> tu ne sais manifestement pas ce qu’est le Re-ADSL
Le
01/11/2012 à
15h
30
pti_pingu a écrit :
Mais c’est justement sur ce seuil qu’agisse les DSP (en accompagnement des algos de correction).
Et ce que je dis c’est que ce seuil est borné par l’entropie du message, et qu’on n’en est pas si loin.
Autrement dis, dès lors que les DSP évolueront, que le débit ou la bande passante augmenterai
La bande passante maximale théorique (équivalent au ‘volumes transmissibles par unité de temps’) est fonction de la largeur de bande de fréquence que tu utilises.
Et donc si tu ne peux plus gagner grand chose du côté du point 1), ta seule solution est de jouer sur le point 2).
Le
01/11/2012 à
15h
18
pti_pingu a écrit :
" />, car de toute façon on parle de rééquiper des antennes existantes
Une antenne = 100km2.
Soit en très gros 5 000 à 15 000 répartis sur tout le territoire. Ca ne te rappelle pas quelque chose ce genre de proportions ?
Gagné: on a le même ordre de grandeur que … celui des NRA.
Donc le déploiement revient à un équivalent de l’effort de fibrer tous les NRA de France (chose déjà passablement faite) ; rien à voir avec l’effort de fibrer tous les habitants (le “delta” d’effort quand on parle de fibrer la france entière).
Le
01/11/2012 à
15h
12
pti_pingu a écrit :
Et bien avec le numérique, c’est exactement le même but, mais où le discriminant est l’UC et les DSP qui se charge de virer le bruit et qui s’améliore tout doucement.
L’optimisation ne permet pas de gagner en bande passante. Elle permet juste de gâcher de moins en moins de bande passante, sachant que quand on a atteint ‘zéro gachis’, ça s’appelle l’entropie du message.
Le problème est que les technologies récentes (notamment depuis la 3G et les turbo codes) ont permis de s’approcher des limites de la possibilité d’optimiser. Il ne reste donc pas 36 solutions ; augmenter la largeur de la bande utilisée, le reste ne sera que peu significatif.
Le
01/11/2012 à
15h
02
pti_pingu a écrit :
Oui, enfin faut quand même tirer une fibre jusqu’à l’antenne et le BTS, donc bon, si déjà y’a la fibre dessus, y’a toujours moyen de mettre en place une techno FTT-LA en cable cuivre jusqu’au résidents du coin paumé, non? " />
A la pelle, la pioche, et les coûts induits près " />
Le
01/11/2012 à
14h
57
TheStig a écrit :
Étant donné que les fréquences demandées tournent apparemment vers les 100MHz
Non, c’est la largeur de bande, 100MHz, pas son ‘emplacement’ dans le spectre.
Dit autrement, une bande de largeur 100Mhz, c’est dire on prend 100MHz à partir de telle fréquence et jusqu’à telle fréquence. Genre si tu commences à 800MHz, tu finis à 900MHz, si tu commences à 100Mhz, tu prends tout jusqu’à 200Mhz, etc.
Par exemple, l’ensemble de la radio analogique en France, c’est 87,5 – 108 MHz, soit 21.5MHz de largeur de bande.
Sachant qu’en plus touts les ‘emplacements’ ne sont pas égaux certains sont très bons pour traverser les obstacles (genre 800MHz), et tout le reste beaucoup, beaucoup moins.
Autre comparaison, l’ensemble du spectre alloué à la radio analogique, c’est
C’est l’équivalent des ‘5MHz’ dont on a parlé lorsque les opérateurs se les sont arrachés a grand coups de milliards pour les licences ‘4G’.
Le
01/11/2012 à
14h
54
coket a écrit :
N’est-ce pas un faux problème???
Ben sauf à être capable d’inventer des bandes de fréquences qui n’existent pas ou de modifier quelques préceptes fondamentaux de l’eléctromagnétique qui ont cours depuis plusieurs siècles, non, c’est pas un faux problème.
Pour la comparaison bagnolesque, cette bande là, c’est un peu l’A6 un jour de 15 août en équivalent télécom.
Le
01/11/2012 à
14h
20
jinge a écrit :
Après c’est toujours aussi une question de coût et donc de prix.
Souvent vrai, mais ici c’est pas l’unique obstacle.
Déployer, c’est également énormément de temps nécessaire pour libérer des fréquences qu’on pourra réattribuer à cette techno.
Pour la 3.9G qu’on va nous vendre à partir de 2013 en France, il a fallu trouver des fréquences dispo. Et pour en avoir de dispo on a dû lancer la TNT puis attendre la fin définitive de la TV analogique.
La largeur de bande pour la LTE advanced est encore bien plus grosse que l’actuelle 3.9G (hé oui, pas de miracle, plus on veut du débit, plus il faut une bande large). Donc il va falloir les trouver quelque part, et ça ne se fera pas en deux minutes. Forcément.
Euh si c’est la seule attestation qu’ils ont en mains, il va falloir qu’ils s’attendent à un procès pas forcément à leur avantage…
Au contraire, pour pouvoir retenir la diffamation, il faut que le plaignant prouve que l’auteur était de mauvaise foi et avait pour but de nuire avec un traitement partial voir (volontairement) fallacieux de l’information.
La ça va être d’autant plus complexe pour le plaignant de prouver la mauvaise foi, puisque l’auteur apporte des éléments matériels permettant de démontrer sa bonne foi.
Niveau procès, SFR est mort d’avance. Mais ça à la limite il s’en foutent car ce n’était pas l’objectif. Le vrai objectif c’était d’intimider.
Mais double ratage, car en plus d’une intimidation qui fait un flop, il se ramasse un bon gros bad buzz, avec une médiatisation qui a déjà atteint des médias généralistes à portée nationale.
gg SFR.
Le
01/11/2012 à
07h
43
Il daut croire que tous les moyens sont bons pour intimider et pas sûr que certains soient beaucoup plus vertueux que d’autres. Free avait même déjà porté plainte contre un de ses propres abonnés pour diffamation pour un message (troll ?) un peu agressif posté sur un forum.
Ceci dit, pour le coup, gg universFreebox : le nouvel obs et l’expansion parlent de vous ainsi qu’une belle pelletée de sites plus ou moins spécialisés. Le bruit médiatique est à priori exactement ce que SFR devait redouter.
A mon avis on ne peut pas calculer comme cela, l’arm peut être 60% plus performant que l’atom dans ce cas précis (avec un os et un navigateur particulièrement optimisé pour lui) et être nettement moins performants dans une autre activité.
Certes, c’est ce que je disais quand je parlais de résultats ‘forcément parcellaires’.
Néanmoins d’une autre côté, faire tourner des tests javascript implique de faire tourner derrière un interpréteur, ce me paraît relativement étendu comme bench puisque l’interpéteur va mettre en oeuvre quand même un panel assez varié d’usages du CPU (à mon sens).
brokensoul a écrit :
Attends peut être que le A15 soit testé sur autre chose que du javascript
Oui, c’est ce que j’attends. Mais si effectivement on se retrouve avec une solution de l’ampleur d’un Core2 Duo pour une consommation faible et surtout du vrai fanless intégrable dans un chassis ridicule, le linuxien que je suis (et qui se fout donc d’être en x86) y voit là une belle opportunité de faire de l’ultra book qui déchire et parfaitement confortable pour mes utilisations (bureautique, développement, … mais pas de jeu).
Le
31/10/2012 à
19h
42
Dans ma longue quête de définir les performances globales d’un CPU ARM comparé à un CPU x86 ‘classique’, je lis cet article qui me dit grosso modo que ce dual core cortex A15 ferait à la très grosse louche un +60% par rapport à un Atom N570.
Un petit détour par cpubenchmark (cette page) me donne un indice de perf pour l’Atom N570 de 639 … heu … unités.
Donc si on prend ces deux benchs/indices (forcément parcellaires) comme première approcimation, on a un cortex A15 qui devrait se situer aux alentours des CPUs ayant un ‘indice cpubenchmark’ de 1022.
Ca tombe bien, ça correspond à un Core2 Duo T5600 @ 1.83GHz, soit exactement le CPU que j’avais dans mon laptop précédent, et donc que je connais bien.
Dois-je en conclure que si demain je me trouve un device quelconque basé sur une archi cortex A15 dual core (genre une nexus 10 ou ce ChromeBook), que je me débrouille pour y planter dessus une petite Ubuntu (ou une copine), j’aurai un device avec ‘grosso modo’ les même perfs que mon ancien laptop, le tout totalement fanless et 6 à 8 heures d’autonomie sans forcer ?
Il y a aussi tout comme sur Android des problèmes de qualités des applications, mais surtout de fiabilité et de performances.
Oui, enfin c’est un peu pareil quel que soit le store ; tu ne peux pas avoir que des applications parfaites.
L’avantage de Microsoft à ce niveau est que l’environnement de développement n’est pas nouveau pour les développeurs, puisque c’est (grosso modo) déjà celui utilisé depuis longtemps pour coder sur d’autres plateformes de la boite.
Lebaronrouge77 a écrit :
Après on rentre dans un cercle vicieux. Le store est vide car il n’y a pas assez de monde sous Windows Phone et donc les développeurs ont peurs de ne pas trouver leur public. Et ce public ne vient pas car le store est vide.
Sauf que là dans tous les cas, le store sera plein d’utilisateurs de windows 8, situation inédite en comparaison de celles qu’on rencontré la concurrence dans le mobile.
Le
30/10/2012 à
18h
00
snoopy1492 a écrit :
Cela va surement changé avec windows 8 dispo, mais je continue de dire que le store windows phone est bien loin des deux autres à l’heure actuelle.
Sur le fond on est d’accord. Ce qu’il manque c’est justement de dire que les choses sont amenées à évoluer rapidement.
Et pas ‘rapidement comme les débuts d’Android à l’époque’, mais d’autant plus rapidement que la Microsoft embarque potentiellement les ‘développeurs desktop’ dans l’aventure, développeurs infiniment plus nombreux que ceux de toutes les plateformes mobiles réunies. Le tout avec à peu près zéro temps pour monter en compétence (la plateforme, le langage, etc… sont déjà assimilés et utilisés concrètement depuis un bon moment). Une paille.
Donc oui, mentionner que le store est pour le moment moins fourni, ok. Mais ça doit aller de pair avec le reste.
Le
30/10/2012 à
17h
18
snoopy1492 a écrit :
En même temps on ne demande pas à un journaliste de sortir sa boule de cristal et d’imaginer ce que pourra être l’écosystème WP8 dans 6 mois…
Il pourraient mentionner deux faits concret concernant:
le nombre d’applis est déjà très important et couvre à peu près tous les besoins.
l’atout de l’écosystème dans son ensemble et la sinergie qu’il a vocation à apporter avec le software côté desktop.
Ca s’appelle être capable d’un minimum de mise en perspective ; on est loin de sortir la boule de cristal ; on apporte juste des éléments factuels supplémentaires pour mieux éclairer le contexte.
il n’arrive pas à la cheville des autres pour l’instant. On verra bien dans 6 mois où on en est.
Je ne peux que plussoyer ce qui a été dit avant ; sauf ton approche binaire, le store est très loin d’être vide au jour d’aujourd’hui, et couvre déjà un très large panel de besoins.
Il faut sortir un peu le nez du guidon parfois: la course aux chiffres n’est pas forcément corrélée avec un réel bénéfice en terme de possibilités concrètes pour les utilisateurs.
GNT dit souvent des conneries, mais pour une fois ils ont très bien résumé la situation:
Chacun des deux derniers jours (depuis le lancement de Windows 8) a vu l’apparition de plus de 500 nouvelles applications et un bon nombre d’entre elles sont des applications de grande qualité qui pourront aider à valoriser la plate-forme Windows
(…)
à la mi-août, il n’y avait seulement que 530 applications dans le magasin d’applications Microsoft, puis 2000 en septembre et maintenant 9000. Ainsi, si ce chiffre n’est certes pas impressionnant, il faut plutôt s’attarder sur la très forte croissance observée. De très nombreux développeurs issus du monde Windows sont en effet très intéressés par le développement d’applications dans l’univers Windows, qui pourrait très vite s’imposer si Windows 8 est un succès.
Le
30/10/2012 à
15h
51
Deux articles lus en diagonale (engadget, the verge), deux fois la même conclusion: le téléphone est excellent, mais l’écosystème de Microsoft est un peu ‘court’ comparé aux autres.
Alors, certes ils ont raison au jour d’aujourd’hui (encore que le nombre d’applis déjà disponibles a de quoi contenter à peu près n’importe quel utilisateur moyen sauf si on joue a kikalaplugrosse), mais surtout ça me semble relever du manque total de vision à long terme de ce que va pouvoir devenir l’écosystème de Microsoft. D’ici quelques mois, les développeurs auront touché à Win8, et compris qu’il était dans leur intérêt de proposer des applis ‘Metro’ également pour le desktop (et donc pour les mobiels aussi). Et vont faire exploser le nombre d’applications disponibles.
Dans ce cadre, s’arrêter à dire “c’est pauvre au jour d’aujourd’hui” relève presque de la faute si on ne l’accompagne pas d’un “ça risque de changer énormément à (court et) moyen terme”.
Bref, déçu d’avoir juste un instantané sans la moindre mise en perspective. A ce titre, la comparaison avec le positionnement tarifaire de chez Google aurait limite été bien plus pertinent que leurs conclusions bien pauvres à mon goût. Parce que question épine dans le pied, Google se pose effectivement là.
Ca fait combien de temps que t’as pas approché un dév. ?
oposs a écrit :
Applications/Settings/Network and USB Utilities/USB Connection/Connect to Computer/Mount USB
Peut-être différent pour le S2, mais perso je connecte le câble et je ne fais … rien: ça se reconnait tout seul, comme une clef USB lambda.
Le
30/10/2012 à
14h
42
frikakwa a écrit :
Càd? " /> Développe! " />
Chez l’autre, c’est tellement dépouillé en fonctionnalités, que ça a au moins un avantage: tu risques pas de te perdre dedans " />
Le
30/10/2012 à
13h
20
canti a écrit :
pareil pour le coté “amener son telephone perso au boulot”
Pour ça, la première étape, c’est surtout le dual SIM associé à un matos haut de gamme.
Parce qu’actuellement, le marché est considéré comme un marché de niche et les rares téléphones dual SIM proposés sont au mieux du ‘moyen de gamme’, au pire du ‘ultra bas de gamme importé de Chine via ebay’.
Pourtant, je pense qu’entre les gens qui voudraient un seul téléphone pour le boulot et le perso + les quelques millions de travailleurs qui naviguent d’un pays à l’autre très régulièrement (typiquement les frontaliers), il y aurait peut-être là de quoi avoir une masse critique d’acheteurs pour un vrai bon téléphone.
En tout cas, l’arrivée du multi-compte sur les tablettes est une vraie bonne avancée et un vrai bon exemple d’amélioration relevant du “bon sens” (régulièrement évoqué ici même d’ailleurs).
Le soucis, c’est que pour beaucoup d’esprits étriqués qu’on croise ici, l’amalgame est vite fait entre les utilisateurs normaux de produits apple qui doivent représenter au moins 95% de la clientèle et la poignée d’énergumènes qu’on voit dans les journaux à chaque sortie d’iBidules.
Le fond est vrai.
Ca n’empêche que proportionnellement, les fanboys (intégristes) apple sont bien plus importants que les fanboys d’une autre marque.
Les files d’attente devant les appStore sont un bon indicateur, mais pas seulement. Perso, j’ai jamais vu d’autocollant ‘Samsung’ ou ‘Nokia’ collé au cul d’un bagnole ou sur un attaché case. C’est loins d’être un cas exceptionnel du côté de la firme à la pomme.
Alors que ça ne constitue pas une majorité, c’est un fait. Mais qu’il y en ait plus chez la pomme qu’ailleurs, c’est également un fait avéré.
7015 commentaires
Galaxy Note II : déjà 3 millions de smartphones écoulés par Samsung
02/11/2012
Le 02/11/2012 à 15h 25
Le 02/11/2012 à 14h 40
Le 02/11/2012 à 14h 19
Le 02/11/2012 à 14h 17
Le 02/11/2012 à 14h 13
Le 02/11/2012 à 13h 28
Ayant un galaxy s3 qui m’incite à délaisser petit à petit mon Asus transformer, je me demande s’il ne serait pas bénéfique au final que je remplace le tout pas un note2.
D’autant que mon téléphone me sert à peu près jamais à téléphoner (et quand c’est le cas, en général c’est via le kit bluetooth de la voiture). Le reste, si je fais 30 minutes par mois c’est un grand maximum.
Reste l’inconnue: le note2 rend-il le jeans baggy indispensable ou bien il est costar-proof également ?
MacBook Pro 13 avec écran Retina : un surcoût de 500 € justifié ?
02/11/2012
Le 02/11/2012 à 13h 12
« Ils vont chercher des poux à Me.ga, mais ils n’y arriveront pas. »
02/11/2012
Le 02/11/2012 à 12h 02
Recharge sans fil : Google confirme que le Nexus 4 utilise le standard Qi
30/10/2012
Le 02/11/2012 à 11h 47
Oui enfin il y a d’autres solutions déjà mises en oeuvre. Genre les ‘picots’ sur la coque extérieure de certain téléphones.
Le 01/11/2012 à 21h 36
Le 30/10/2012 à 15h 17
Le 30/10/2012 à 14h 38
4G : la LTE Advanced (1 Gb/s) se prépare déjà en Russie
01/11/2012
Le 02/11/2012 à 11h 44
Le 02/11/2012 à 10h 36
Le 02/11/2012 à 08h 09
Le 01/11/2012 à 22h 52
Le 01/11/2012 à 22h 35
Le 01/11/2012 à 21h 01
Le 01/11/2012 à 19h 18
Le 01/11/2012 à 19h 17
Le 01/11/2012 à 16h 34
Le 01/11/2012 à 15h 45
Le 01/11/2012 à 15h 43
Le 01/11/2012 à 15h 35
Le 01/11/2012 à 15h 30
Le 01/11/2012 à 15h 18
Le 01/11/2012 à 15h 12
Le 01/11/2012 à 15h 02
Le 01/11/2012 à 14h 57
Le 01/11/2012 à 14h 54
Le 01/11/2012 à 14h 46
Le 01/11/2012 à 14h 20
SFR attaque Univers Freebox en justice pour diffamation
01/11/2012
Le 02/11/2012 à 08h 53
Le 01/11/2012 à 07h 43
Il daut croire que tous les moyens sont bons pour intimider et pas sûr que certains soient beaucoup plus vertueux que d’autres. Free avait même déjà porté plainte contre un de ses propres abonnés pour diffamation pour un message (troll ?) un peu agressif posté sur un forum.
Ceci dit, pour le coup, gg universFreebox : le nouvel obs et l’expansion parlent de vous ainsi qu’une belle pelletée de sites plus ou moins spécialisés. Le bruit médiatique est à priori exactement ce que SFR devait redouter.
Quelles performances pour le Chromebook ARM de Google
31/10/2012
Le 02/11/2012 à 08h 25
Le 31/10/2012 à 19h 42
Dans ma longue quête de définir les performances globales d’un CPU ARM comparé à un CPU x86 ‘classique’, je lis cet article qui me dit grosso modo que ce dual core cortex A15 ferait à la très grosse louche un +60% par rapport à un Atom N570.
Un petit détour par cpubenchmark (cette page) me donne un indice de perf pour l’Atom N570 de 639 … heu … unités.
Donc si on prend ces deux benchs/indices (forcément parcellaires) comme première approcimation, on a un cortex A15 qui devrait se situer aux alentours des CPUs ayant un ‘indice cpubenchmark’ de 1022.
Ca tombe bien, ça correspond à un Core2 Duo T5600 @ 1.83GHz, soit exactement le CPU que j’avais dans mon laptop précédent, et donc que je connais bien.
Dois-je en conclure que si demain je me trouve un device quelconque basé sur une archi cortex A15 dual core (genre une nexus 10 ou ce ChromeBook), que je me débrouille pour y planter dessus une petite Ubuntu (ou une copine), j’aurai un device avec ‘grosso modo’ les même perfs que mon ancien laptop, le tout totalement fanless et 6 à 8 heures d’autonomie sans forcer ?
Ça me paraît invraisemblable.
Vos avis ?
Revue de presse : l’iPad mini à l’heure des premiers tests
31/10/2012
Le 01/11/2012 à 23h 01
Le 01/11/2012 à 01h 15
Le 31/10/2012 à 10h 01
Des cinémas déprogramment un film à cause de sa diffusion sur Dailymotion
31/10/2012
Le 31/10/2012 à 19h 27
Windows Phone 8 : les développeurs ont enfin accès au SDK
31/10/2012
Le 31/10/2012 à 15h 35
Revue de presse : faut-il craquer pour le HTC 8X sous WP 8 à 529 € ?
30/10/2012
Le 30/10/2012 à 18h 12
Le 30/10/2012 à 18h 00
Le 30/10/2012 à 17h 18
Le 30/10/2012 à 15h 51
Deux articles lus en diagonale (engadget, the verge), deux fois la même conclusion: le téléphone est excellent, mais l’écosystème de Microsoft est un peu ‘court’ comparé aux autres.
Alors, certes ils ont raison au jour d’aujourd’hui (encore que le nombre d’applis déjà disponibles a de quoi contenter à peu près n’importe quel utilisateur moyen sauf si on joue a kikalaplugrosse), mais surtout ça me semble relever du manque total de vision à long terme de ce que va pouvoir devenir l’écosystème de Microsoft. D’ici quelques mois, les développeurs auront touché à Win8, et compris qu’il était dans leur intérêt de proposer des applis ‘Metro’ également pour le desktop (et donc pour les mobiels aussi). Et vont faire exploser le nombre d’applications disponibles.
Dans ce cadre, s’arrêter à dire “c’est pauvre au jour d’aujourd’hui” relève presque de la faute si on ne l’accompagne pas d’un “ça risque de changer énormément à (court et) moyen terme”.
Bref, déçu d’avoir juste un instantané sans la moindre mise en perspective. A ce titre, la comparaison avec le positionnement tarifaire de chez Google aurait limite été bien plus pertinent que leurs conclusions bien pauvres à mon goût. Parce que question épine dans le pied, Google se pose effectivement là.
Tout savoir d’Android 4.2 : Photo Sphere, multi-comptes, Miracast…
30/10/2012
Le 30/10/2012 à 14h 50
Le 30/10/2012 à 14h 42
Le 30/10/2012 à 13h 20
Amazon dénigre l’iPad mini au profit de ses tablettes Kindle Fire HD
29/10/2012
Le 29/10/2012 à 19h 27
Apple signe de loin sa meilleure année fiscale avec 42 Mds de $ de bénéfice
26/10/2012
Le 29/10/2012 à 19h 26