votre avatar

Awax

est avec nous depuis le 6 juillet 2006 ❤️

141 commentaires

Le 25/03/2013 à 10h 38



différentes stratégies sont parfois mises en place pour accélérer artificiellement l’obsolescence des produits, afin de favoriser leur renouvellement. Cela peut passer par une innovation technologique ou esthétique



OK.

Il est donc maintenant INTERDIT de sortir un nouveau CPU ou un nouveau GPU.



Grandiosement débile.

Le 22/03/2013 à 09h 24



« Certains types d’équipements, notamment dans le domaine du numérique ou de la téléphonie mobile, semblent s’appuyer sur un modèle économique favorisant sciemment un renouvellement excessif des terminaux par une obsolescence technologique programmée de la part des constructeurs »





Tu veux éviter que les gens changent de portables au bout de 2 ans alors que le téléphone marche encore très bien ?



Simple : TU INTERDITS LA SUBVENTION DU TELEPHONE PORTABLE.



Et hop, rien qu’avec cette mesure immédiate, quand il faut acheter son smartphone 700€ et son téléphone merdique 100€, alors tu vas arrêter d’en changer parce que la couleur n’est plus à la mode.



Et pour la réparabilité, quand un client saura que son téléphone lui coûte 700€ et que donc il n’en changera pas avant plusieurs année, alors il fera attention à sa fiabilité et au SAV et pas de savoir si il fait du NFC, à une coque en fibre de carbone ou permet d’avoir la dernière sonnerie de Nabila.

Le 27/02/2013 à 14h 45

La proposition est à décrypter.



Tous les produits vendus en EU ont une garantie du vendeur de 2 ans qui couvre les défauts qui étaient présents lors de la livraison.



La substilité, c’est que si la panne a lieu dans les 6 premiers mois, c’est au vendeur de prouver que la panne n’est pas due à un défaut présent.

Alors que pour les 18 mois suivants, c’est au client de prouver que c’est bien le cas.



Il y a donc une présomption de panne plus facile pour le client dans les 6 premiers mois et que la députée voudrait étendre à toute la durée de couverture. Cela permettra au client de faire jouer plus souvent la garantie et que ce soit moins facile pour le vendeur de refuser la couverture.

Le 26/02/2013 à 09h 41

Traduction:



On voudrait pouvoir faire payer des abonnements et des micro-transaction, ainsi que pister nos joueurs pour pouvoir afficher des pubs.

Le 21/02/2013 à 14h 40







snoopy1492 a écrit :



Donc au final pour toi ça n’a pas d’intérêt, et pour moi ça en a.



Sauf que je pense que le cas de figure que tu présente n’est pas la grande majorité. Dans ton cas, un proj 4K comme celui de RED serait mieux adapté.





snoopy1492 a écrit :



Le but des télé de nos jours est de t’immerger dans l’image, comme au cinéma ou au final le mieux est d’avoir un écran englobant tout le champ de vision.

Alors cela passe par des distances raccourcies ou des télés plus grandes; tout dépend de la configuration de ton salon bien sûr. Et d’ailleurs aujourd’hui, pour des sources Full-hd de qualité, on conseille une distance de 2m pour un écran de 50” (3m pour du Hd ready et 4m pour de la SD, faut un canapé à roulette <img data-src=" /> )





Ton canapé n’a pas besoin de roulette car tu ne changes pas de TV.



Il y a un double sujet ici : l’angle de vision et la résolution de l’image. Si effectivement tu cherches à reproduire l’immersion cinéma = un angle de vision de l’ordre de 30°, alors oui le 4K se justifie (c’est normal, c’est une résolution cinéma). Comme tu le disais, cela impose de s’assoir enormément proche de la télévision (30° sur une 50”, c’est effectivement 207cm). Mais pour ce genre d’immersion, la projection est bien meilleure. En effet, si une TV de 55” est considérée comme très grande, 65” comme géante et 80” comme démesurée, il est très courant pour un écran de projection de faire 2m de base = 90” de diagonale). En plus, quand on ne projète pas, l’écran est replié et on n’a pas une énorme dalle noire de la taille d’une porte fenetre.



Le second sujet est la résolution et le fait que l’oeil humain puisse discerner les pixels. Sur un 50” en 1080p, selon certaines théories, il faudrait s’assoir au minimum à 2.5m pour ne plus voir les pixels. C’est donc déjà trop loin pour l’immersion. D’autres disent que c’est encore trop prêt et qu’ils peuvent voir les pixels en étant assis à 5m. Bon.



Au final, oui, le 4K est “pertinent” dans le cadre de l’immersion cinéma et correspond plus à un projecteur. Mais l’usage ultra répandu de la TV n’est pas une immersion complète dans l’image et seuls des usagés de niches ont de telles pratiques.



Donc, comme je disais, le 4K n’est qu’une niche qui n’a pas besoin d’être addressée par la PS4 dès maintenant (ou alors elle couterait 5000€) et éventuellement dans 10 ans, on ne se posera même pas la question car soit le 4K aura fait un flop ou sera suffisament courant pour qu’on ne se pose pas la question.


Le 21/02/2013 à 14h 25







Reparateur a écrit :



je suis a 2m50 avec 80” est c’est très bien

tout le champs visuel est occupé





C’est justement pourquoi on appelle ça une moyenne : cela veut dire qu’il y a des personnes qui sont assises plus près ou plus loin.



80”, c’est ultra rare en France, convenons que tout le monde n’a pas les moyens de lacher 5000€ sur une TV.



Pour l’occupation du champs visuel, tu es à 40°. C’est même preque trop large. THX recommande 36°.

Et pour les fanas du megapixels, tu dois être en train de t’arracher les yeux à voir tout ces horribles pixels. Avec une vision 1210 (moyenne), tu devrais être assis au moins à 4m pour ne pas voir les pixels.

Cela dit, dans ton cas EXTREMENT, le 4K effectivement pourrait ce justifier … si le contenu existait.


Le 21/02/2013 à 14h 17







fred2vienne a écrit :



c’est bizarre, je n’ai pas la même définition d’abordable;

quand j’ai acheté ma tv + PS3 en fin 20072008, la ps3 avais déjà un an, et ma téloche Sony moyenne gamme mais fullHD m’a coûté 1800€. je trouve pas ça abordable.





Une TV 4k, ce sera 5000€ pour 55” cet été. C’est encore moins abordable.


Le 21/02/2013 à 11h 29







snoopy1492 a écrit :



Parle pour toi, j’ai 50” et je pourrais pousser à 65” sans soucis si le budget suivait. Et tout le monde n’a pas sa télé à 3m.





3m c’est la distance moyenne suite à une grande enquète. Et donc aussi, parle pour toi, faire rentrer une TV de 50” ou 65”, c’est un vrai prob physique. (Et mon salon est très grand, je suis au contraire dans le cas où un écran de 65” serait encore petit).





snoopy1492 a écrit :



Par exemple pour le jeu, la plupart des joueurs jouent à des distances bien plus faibles (mais bon avant qu’une console ne joue en 4K, va falloir attendre).



Qd tu joues tu es sur ton canapé. Et la distance moyenne constaté, comme je disais, c’est 3m.





snoopy1492 a écrit :



Puis franchement, si demain tu pouvais avoir une tv 4K au prix d’une Full HD, et ce avec une qualité aussi bonne, pourquoi prendre la Full-HD?



Car elle même aura baissé de prix et tu ne verras pas la différence ?





snoopy1492 a écrit :



Qui plus est, des gens très intelligents vont sûrement nous trouver de nouvelles utilisations pour des écrans avec de telles résolutions.

Exemple con de bienfait de la 4K, un sous-titre est bien plus agréable qu’en Full-HD ;)



Etrange, un 1080p 55” à 2m c’est la même densité de pixel qu’un iPhone Retina à 30cm. Et le texte est superbe.


Le 21/02/2013 à 10h 51







snoopy1492 a écrit :



T’as testé la 4K? Vraiment?



Facile à faire. Tu prends un iPhone Non Retina (3G ou 3GS), iPhone Retina (4 ou 5) et un iPad Retina (3 ou 4). Tu met les iPhones à 30cm et tu mets l’iPad à 75cm. Tu peux le faire dans un Apple Store ou une Fnac ou avec tout appareil équivalent de Samsung ou autre, les tiens ou ceux de tes potes.



Avec cette configuration, iPhones et iPad ont quasiment la même taille (l”écran forme un angle de environs 17° dans ta vision). Sauf que l’iPad a 2 fois plus de pixel que l’iPhone Retina qui a 2 fois plus de pixels que l’iPhone Non Retina.



La question est donc : quelle est la différence que tu vois ? et laquelle est négligeable.



La réponse est simple : le passage de iPhone Non Retina à iPhone Retina te saute aux yeux. Le passage de iPhone Retina à iPad Retina est à peine perceptible.



Voila, démonstration terminée et facile à faire car avec des appareils déjà disponibles.



L’erreur de la plupart des personnes qui parlent de la 4K, c’est qu’ils se mettent debout devant la TV. Et effectivment, à 1 ou 2m de la TV sur un modèle 60-80”, la 4K change quelque chose. Sauf que dans ton salon, tu es assis à 3m et que tu n’a pas la place de mettre autre chose que 50”.


Le 21/02/2013 à 09h 05







Renardin6 a écrit :



Ce qui est pas mal, c’est que sony annonce une retro-compatibilité via du cloud gaming… moi je comprends une chose, je dois racheter mes 100 jeux ps1, mes 200 jeux ps2 et mes 100 jeux ps3 pour en profiter sur la ps4… ça pue la méthode Nintendo.



Vive la steambox!



C’est sûr, tu n’as pas du racheter tes 200 jeux PS2 pour y jouer sur PS3. Ah si.



Donc, qu’est-ce qui change par rapport à la PS3 ?

Et qu’est-ce qui t’empeche de garder ta PS2 sous la TV ?



Enfin, la PS4 étant un PC (et non un CPU custom comme l’Emotion Engine de la PS2 et le Cell de la PS3), il est bcp plus probable que les jeux PS4 soient compatibles PS5 qui elle aussi devrait donc avoir une architecture générique (ou basculer intégralement dans le cloud gaming).


Le 21/02/2013 à 09h 02

Merci à Sony de ne pas avoir mis en avant le support du 4K qui est un buzz marketing.



Quand la PS3 est sortie, les TV HD existaient déjà et étaient abordable. Le contenu HD était diffusé à la TV et les BluRay sortaient. Et par rapport à de la SD, le saut de qualité était phénoménal.

Et la plupart des jeux sont de toute façon en 720p et non en 1080p et dépassent rarement le 2530 image par seconde. Il reste donc de la marge de manoeuvre pour améliorer la qualité et la fluidité des images tout en conservant la même résolution maximale?



Pour le 4K, il n’existe qu’une poignée de modèles tout juste annoncés, quasi aucun n’est en vente et ceux qui le sont coutent le prix d’une petite voiture. Il n’existe aucun contenu et les industriels s’arrachent les cheveux pour savoir comment le diffuser lors qu’il sera dispo. Et le saut de qualité n’est perceptible que sur les TVs de taille gigantesque qui ne seront qu’une petite part du marché de la TV, la barrière n’étant plus le prix (qui baissera tot ou tard) mais la place physique nécessaire pour mettre une TV de 1,6m dans son salon.



Bref, toute personne qui se plaint de ne pas avoir le 4K sur la PS4 est un pigeon. J’ai des cables optiques avec connecteurs plaqués or à lui vendre.

Le 29/01/2013 à 09h 20



Pour les possesseurs d’iPhone 5 dans le monde, cette mise à jour est surtout l’occasion de rendre le smartphone compatible avec un nombre accru de fréquences LTE.



Euh, primo, comment une mise à jour logicielle peut modifier les antennes physiques d’un téléphone ?



Secundo, l’iPhone 5 ne supporte pas plus de fréquence qu’hier :apple.com AppleTertio, l’iPhone 5 supporte surtout les réseaux LTE de nouveaux opérateurs qui sont sur les fréquences déjà supportées.



Pour l’instant, la grande majorité des réseaux 4G européens déjà allumés (et pas juste annoncés ou alors avec seulement 2 antennes à Paris), sont sur la fréquence 1800Mhz (bande 3). L’Europe a normalisé l’usage des bandes 3, 7 et 20. Malheureusement pour les Francais, l’iPhone 5 supporte la bande 3 et la France a ouvert des licences LTE sur les bandes 7 et 20. Il faudra donc attendre les prochains modèles ou un renouvellement au printemps pour avoir ces bandes supportées sur l’iPhone 5 (ce qui avait été le cas avec la sortie de l’iPhone 4 Verizon au printemps).



De toute façon, tant qu’il n’y a pas de vrai réseau (couvrir juste Paris Opera ne compte pas), il n’y a pas d’intérêt à sortir un modèle avec les bandes 7 et 20 alors qu’avec juste la bande 3, ils peuvent couvrir Asie et les réseaux déjà allumés d’Europe. Ils ont déjà du mal à répondre à la demande, alors rajouter de nouvelles bandes serait bcp d’effort pour aucun gain. Et comme pour l’iPhone 3G, il est fort probable que le modèle suivant supporte plus de bande quand les chipsets seront plus puissants pour le même prix.

Le 24/01/2013 à 07h 48

Les marges ont baissés car ils ont renouvellé 80% de leur catalogue au début de l’année. Un produit en début de vie à des marges moins qu’un produit dont la fabrication est bien rodée.



On a l’iPad 4 et l’iPad mini. Apple avait d’ailleurs annoncé que sur ce dernier les marges étaient particulièrement resserrées par rapport au “standard Apple”.

On a l’iPhone 5 et les nouveaux iPods Touch.

On a la nouvelle gamme iMac avec leur boitier super fin … sur les bords.

On a le MPB 13” Retina.



Bref, bcp de nouveaux produits. Bcp de nouveaux technologies/processus de fabrications. Et donc des marges “réduites”.

Le 21/01/2013 à 13h 36



seul dispositif efficace et moderne qui existe dans toute l’Europe et qui permet un peu de rééquilibrage dans le transfert de valeur vers les créateurs de biens culturels



PERDU.

La rémunération pour copie privée sert à compenser un préjudice (la réalisation d’une copie sans l’autorisation expresse de son ayant droit).



Cela n’a AUCUN rapport avec le fait que Apple fasse 50% de marge sur ses appareils.

Que Apple se fasse 5% ou 100% de marge, la seule chose qui doit entrer en ligne de compte pour la copie privée est le nombre de copie effectuée, sans tenir compte ni du piratage ni des chansons avec DRM.



Et je crois même pour les chansons achetées sur iTunes, faire des copies ne devrait pas donner lieu à de la rémunération pour copie privée car les CGV iTunes indiquent que je peut copier ma musique sur un certain nombre d’appareils. Si il y a une limite maximale, c’est que les copies en dessous de cette limite sont des copies licites et autorisées et donc n’entre pas dans le cadre de la copie privée qui correspond aux copies qui ne sont pas autorisées (mais ne peuvent pas être interdites), c’est la définition de l’excemption du droit d’auteur pour copie privée).

Le 18/01/2013 à 15h 34







VilraleuR a écrit :



De la bouse télévisuel en SD, HD 4K ou autre ça reste de la bouse …





Du contenu de qualité en 4K c’est encore mieux que le meme en HD qui était déjà mieux que la SD.



De toute façon, il n’y aura pas besoin d’aller au dela du 4K ensuite, car c’est la résolution du cinéma. L’IMAX monte en 8K mais justement, les salles IMAX ne sont qu’une partie des salles et cela ne pose pas de problème.

Et le 1080p est largement suffisant pour des tailles de TV à taille humaine (qui a la place de mettre une TV de 2.13m de diagonale dans son salon ????)


Le 18/01/2013 à 15h 32







SmoKe42 a écrit :



Mais je vois toujours pas de solution concrète au pb du débit.



H.265: qualité identique au H.264, débit divisé par deux.


Le 18/01/2013 à 15h 29







Tourner.lapache a écrit :



55-65” 80” et plus.





Avec un 50” en 1080p et à 2.5m, tu as 1 pixel de l’écran qui correspond à 1 “pixel” de l’oeil.



Donc, tout ce qui est plus grand que 50” va gagner à avoir plus de pixel. Doubler le nombre de pixel est radical car cela permet de doubler la taille de l’écran (100” = 2.5m de diag). Mais en tout cas, rajouter des pixels commence à être “perceptible” dès que l’on dépasse 50”, c’est à dire vers 55-65”, ce qui est une légère justification à avoir du 4K.



A 80”, on a passé le stade de la “justification” et on arrive dans le “nécessaire”. Une TV 80” en 1080p, c’est l’équivalent d’une TV 53” en 720p. Et justement, le 1080p commence à être léger à partir de 50” donc du 720p n’en parlons pas, ça commence à piquer les yeux.



PS : tout les calculs sont fait avec une distance de 2.5m et une vision de 1210, vision humaine moyenne.

PPS : ils semblerait tout de fois que si un homme n’est pas capable de consciement distinguer des détails plus fin que ceux utilisés pour les calculs ci-dessus, des tests ont montré que l’on est tout de même sensible à une résolution plus élevée. On ne sait pas dire si il y a 2 points ou un seul point mais on trouve une image plus réelle que l’autre. Donc, le 4K pourrait être un avantage à des tailles inférieures à 80”.

Ce qui est sur, c’est qu’à 42”, c’est LARGEMENT overkill.


Le 18/01/2013 à 15h 06



, les télévisions qui dépassent facilement les 42” (106 cm) ne peuvent plus décemment continuer à se limiter au 1080p.





Bah si, car on est assis à 2.5m. Et à cette distance, si ta TV fait moins de 50”, tu verra pas la différence avec un 1080p. Pour une TV 42”, il faut être assis à moins de 2m pour voir l’intérêt du 4K (et encore).

Sur un iPad de 9.7” en 2048x1536, cela correspond à être à moins de 40cm pour commencer à voir les pixels.



Bref, on peut décemment rester en 1080p sans céder aux sirènes du marketing bullshit. Et le 4K ne commence à justifier que sur du 55-65”. Rappelons qu’une TV affiche des films alors qu’une tablette affiche du texte. La nécessité d’avoir un écran avec résolution ultra fine est donc moins présente sur une TV.

Le 04/01/2013 à 15h 14

Détecter est facile : charger la pub via un javascript. Si le document n’est pas chargé, alors c’est que la pub est bloquée (via Free ou via un AdBlock).

Le 04/01/2013 à 09h 06







Grunt- a écrit :



Bof bof. HADOPI pose des problèmes qui ne disparaissent pas si on change son domaine d’application.

[…]

On a déjà un bel arsenal de loi qui encadrent la liberté d’expression, il suffit juste de les appliquer.





Je parlais des outils techniques de HADOPI : à partir d’une liste d’IP, identifier et alerter/éduquer puis procédure judiciaire en cas de récidive (pas forcément contre le propriétaire de la ligne dans ce cas mais après une éventuelle enquète par exemple).



Je ne parles pas forcer à mettre un filtrage mais de prévenir le proprio de la ligne qu’elle est utilisée et donc qu’il peut parler avec ses enfants pourquoi c’est mal.


Le 04/01/2013 à 09h 02







Platoun a écrit :



Supprimer un tweet, ce n’est pas sanctionner ! On ne demande pas à Twitter de sanctionner. Le chevalier Bayart a encore perdu un occasion de se taire.





Ce n’est pas une sanction mais une censure.

Mais le problème n’est pas là : cela rend Twitter responsable des propos des autres.



La conséquence pratique est donc de fermer Twitter (et tout autre site de publication non modéré au préalable) car personne n’a la capacité de tout filtrer.


Le 04/01/2013 à 08h 57







TerenceHill a écrit :



2 remarques supplementaires:




  • etre contre le mariage pour tous n’est pas equivalent a etre homophobe

  • bizarrement il m’y a pas d’analogie avec des representants de la religion musulmane par exemple. C’est certain que c’est moins dangereux de taper sur la religion catholique…



    Continuez l’excellent boulot que vous faites sur les nouvelles technologies et gardez vos opinions personelles sur des sujets de société pour vous.<img data-src=" />








  1. tout à fait mais les argumentaires et propos utilisés par de nombreux membres du clergé ou de la congrégation catholique sont eux manifestement homophobes.



    2.1 l’absence d’organisation centralisée et institutionnalisée de ces religions (tout comme le protestantisme d’ailleurs, bien que religion chrétienne) fait que leur propos d’un membre du clergé n’ont pas la même autorité que celle de la religion catholique



    2.2 il n’y a pas eu de réaction aussi manifeste, organisée et médiatisée de la part des membres (congrégation ou clergé) de ces autres religions. Comme dit dans un autre commentaire, le clergé de ses religions ont su garder un silence prudent


Le 04/01/2013 à 08h 49







carbier a écrit :



Tu viens de mettre le doigt sur le problème… Il n’est peut être pas homophobe, mais anti-catholique…





Ce n’est pas à moi ni à B. Bayart de décider si ces propos sont avérés mais au pouvoir judiciaire. C’était le sens de ma remarque : il faut laisser les procédures de la république prendre leur place.



Cependant, il faut être de mauvaise foi (haha) pour ne pas reconnaître que de nombreux propos tenus par des personnes appartenant au clergé catholique sont manifestement homophobes, propos particulièrement mis en valeur par la position d’autorité que leur appartenance à ce clergé leur confère.



Le problème n’est pas que ces propos ne soient pas condamnés par le pouvoir judiciaire mais que le pouvoir exécutif n’ai même pas saisi celui-ci en premier lieu (car le pouvoir judiciaire ne peut pas s’auto-saisir - afaik).


Le 04/01/2013 à 08h 42







carbier a écrit :



Tous les sites non… mais les plus importants si… désolé.



Bref, les homophobes peuvent se réunir tranquillement sur un petit forum dédié mais pas sur Twitter ?


Le 04/01/2013 à 08h 40







carbier a écrit :



Parceque tu compares les écrits sur Twitter à des tribunes ouvertes ?



C’est exactement le cas.


Le 04/01/2013 à 08h 35







Llywelyn a écrit :



J’ai pas envie de lancer un débat de religion, mais je trouve l’analogie de PCInpact avec l’église catholique très très foireuse, osée et surtout gratuite..



En tant que croyant (pas catholique), je suis choqué.





La tribune est de B. Bayart, qui ne fait pas partie de PCInpact. PCInpact ne fait que publier cette tribune.



Le propos de B. Bayart ne parle pas de la religion catholique mais de l’église catholique, c’est à dire des personnes qui composent le clergé de cette religion. Il ne dit pas si ces propos homophobes sont “dictés” ou “inspirés” par cette religion, il dit juste que les personnes faisant partie de ce clergé ont une propension largement supérieure à celle de la moyenne à proférer des propos manifestement homophobes. Par leur position d’autorité liée à leur appartenance au clergé d’une religion historiquement importante et activement impliquée dans la société civile, notamment dans les écoles privées financées par l’argent public (dans une école privée sous contrat, les professeurs sont rémunérés par l’Education Nationale), de tels propos homophobes (si avérés bien entendu) sont particulièrement choquant car d’un poids supérieur à celui d’un simple quidam sur Twitter.


Le 04/01/2013 à 08h 25







carbier a écrit :



Je suppose que ce saint homme est aussi contre les sites modérés…



[…]



Sinon pour conclure, je ne vois pas en quoi la modération des sites est un mal…





Ce qui est mal, c’est de forcer tous les sites à être modérés.



Cela veut dire qu’il n’existe plus aucune tribune “ouverte” sur internet où l’auteur est responsable de ses actes et paroles.

La seule solution serait l’auto-hébergement … jusqu’à ce que les FAI soient responsables des sites hébergés via les lignes ADSL de leur clients, idem pour les services de co-location.


Le 04/01/2013 à 08h 22

HADOPI a mis en place les outils pour, à partir d’une liste d’IP, avoir une rispote graduée à un comportement illégal sur internet.



Pourquoi ne pas l’utiliser pour les autres cas d’infraction ?



HADOPI, c’est certes des aberrations (inversion de la charge de la preuve, création d’un délit débile, non compensation de la charge induite sur les prestataires techniques, …) mais c’est aussi la modernisation des outils du pouvoir executif.

Le 03/01/2013 à 11h 10

Bon, quelques erreurs dans cette news.



Primo, le procès n’est pas sur le trademark et concurrence déloyale mais sur trademark et publicité mensongère.



Le jugement partiel qui a été rendu hier ne concerne que la partie “publicité mensongère”.



La partie trademark est encore en cours. La défense de Amazon est soit d’invalider la trademark soit de montrer qu’elle n’est pas concernée (par exemple, si la trademark Apple est liée aux téléphones uniquement alors que Amazon vend des tablettes).

Le 02/01/2013 à 13h 33



En Italie, ils ont réussi à avoir une baisse du trafic de 75% sur Megaupload avant qu’il soit fermé.



Tiens, je ne savais pas que MegaUpload avait été condamné pour être un site d’hébergement illégal.



Comme tout hébergeur internet, il avait en place des outils pour ques ayants droits puissent indiquer les contenus contrefaits. Et ce n’est pas sa faute si ses utilisateurs l’utilisait massivement pour du piratage … du moins c’est ce que prétendent les ayants droits car il n’y a à l’heure actuelle qu’un procédure en cours et il n’y a aucune information publique sur le ratio contenu illicite/contenu légal ou privé.

Le 17/12/2012 à 15h 12

L’argument de l’iPhone 5 est un non argument.

En France, Samsung vend bcp plus d’unité et le jour où le 2600MHz sera réellement disponible en FR et en Europe, Apple sortira un modèle 4G 2600MHz, comme ils avaient sorti un modèle CDMA en cours de vie de l’iPhone 4S.

Le 17/12/2012 à 15h 10







Dyonisos84 a écrit :



Pas étonnant qu’il y ait alors un clivages Free-Bouygues / Orange-SFR



Il n’y a pas de clivages Free-Bouygues/Orange-SFR.

Free ne s’est pas exprimé sur le sujet. C’est surtout Bouygues/Orange-SFR, ou plutôt petit qui n’a pas sorti le chequier pour la licence 4G et qui essaye de chopper plus de fréquence à moins de frais et arrondi les angles du dossier en parlant concurrence et emploi et de l’autre les gros qui ont fait les frais d’une license 4G hors de prix et qui sont deg d’avoir laché un milliard d’euro pour un truc rare qui demain deviendrai accessible facilement.



Free au contraire dans ce dossier fait profil bas histoire de pas encode se faire accuser de casser le système.



PS: le plus fun, c’est le cas de SFR qui proposait la même chose il y a 6 mois et qui maintenant est contre.


Le 28/11/2012 à 08h 15



Toutefois, les premiers pourcentages sont souvent les plus faciles, les opérateurs ayant pour habitude de couvrir les zones les plus peuplées dans un premier temps.

sauf les très grandes villes.



Les villes moyennes sont couvertes les premières. Elles apportent une couverture en population à peu de frais car suffisament dense mais ne sont pas suffisament grandes et organisées pour avoir une contestation des antennes suffisament développée.



A l’inverse, Paris est un cas très particulier : elle représente 3% de la population française mais est ultra réticente au déploiement d’antenne. En incluant la petite couronne, on monte à près de 10% de la population française.

Le 21/11/2012 à 16h 58

Essentiellement, RCS n’est pas destiné aux utilisateurs mais aux opérateurs.



Cela leur permet de repasser au centre de la communication alors que dans une approche pur IP, ils n’étaient que des tuyaux.



Là, en se mettant en partenariat avec Facebook, Orange va savoir ce que vous échangez et avec qui. Et à l’inverse, Facebook devient indispensable pour profiter de Joyn sur Orange.



Alors que sinon, tu peux utiliser Twitter, App.Net ou facebook. Et pour Orange, le flux, c’est de l’IP brut, sans savoir ce que tu fais.

Le 20/11/2012 à 11h 34







pv_le_worm a écrit :



C’est pas mensonger dans le sens qu’ils ne disent pas “avec votre forfait 4G”. Ils disent juste qu’avec le débit de la 4G, ça prend 20 minutes de DL un fichier de 4 Go.



C’est comme quand on nous vend un forfait ADSL 30 Megs, on les atteint jamais, là c’est mensonger oui :3





Ce n’est pas mensonger : le débit annoncé correspond à la norme utilisée (LTE, ReADSL, ADSL2+, VDSL …) et à un éventuel bridage (par exemple l’ADSL 512k).

Ensuite, il est impossible de prévoir à l’avance ou de garantir tes conditions de reception : tu auras le débit intégral si tu es proche de l’antenne et tu auras moins si tu es loin ou avec des interferences.

Et si le site que tu tentes d’accéder est lent/saturé, tu auras également moins même si ta connexion jusqu’à l’antenne pourrait supporter plus.


Le 20/11/2012 à 11h 31

Pour rappel, les 150Mbps sont partagés par tous les utilisateurs de la cellule.

Donc, plus il y a d’utilisateurs, moins tu auras ces 150Mbps.



C’est une nouveauté de la norme LTE : un utilisateur est capable de récupérer l’intégralité de la bande passante de la cellule si personne d’autre ne l’utilise alors qu’en 3G, on reserve un canal est ensuite il nous est reservé, même si on ne l’utilise pas ou qu’aux contraire les autres utilisateurs n’utilisent pas leur canaux.

Le 12/11/2012 à 11h 05







hellmut a écrit :



rêve pas, vu la prix que ça couterait par tête…

par contre je verrais bien une solution non filaire.

c’est déjà beaucoup moins cher à installer, et les débit ne sont pas si mal que ça. rien que le LTE déjà…





C’est que tu n’as rien compris aux enjeux du FTTH.



Simple: même encore maintenant à l’heure du super WiFi mimo de la mort qui tue, un bon vieux ethernet Gigabit reste plus efficace, et surtout mon PC peut se sauvegarder sur mon NAS sans que cela interfere avec ma box TV qui regarde la TV depuis la box ADSL.



Le LTE, c’est un débit partagé. Quand on dit “jusqu”à 100Mbps”, c’est que la norme LTE permet à un utilisateur d’utiliser jusqu’à l’intégralité de l’antenne. En espérant que tout le monde ne télécharge pas en même temps, et hop tu as 100Mbps … chacun son tour.



Le LTE actuel, c’est 300Mbps par cellule. Et le LTE advanced qui va suivre, c’est 3Gbps.

Une fibre peut tranquillement faire transiter 3Gbps voire plus, sans avoir à partager son débit avec le voisin (en vrai déploiement point à point et non un FTTH cheap mutualisé).


Le 12/11/2012 à 09h 20







Stt a écrit :



Du barratin tout ça! Qui ira dépenser une fortune pour fibrer les hameaux et les maisons isolées? Déja que FT n’arrive pas à entrenir correctement ses lignes …. et n’arrive pas à mettre l’ADSL partout , alors la fibre…





Simple :

ADSL = perte de signal au bout de quelques kilomètres.

FTTH = perte de signal au bout de quelques centaines voire milliers de kilomètres.



Et il y a 50 ans, on avait des gens qui disaient “qui ira dépenser une fortune pour mettre le téléphone dans les hameaux et maisons isolées ?”

Et je suis sûr qu’il y avait aussi à une époque des gens pour dire “des routes ? un chemin boueux fera l’affaire”.





Et le prob ici n’est pas justement de couvrir les grandes villes comme Stockholm ou Paris. Ces zones sont rentables et la concurrences s’en chargera. Le prob est la ville moyenne et petite et le village.

Avec un France Telecom public et monopolistique, la question ne se serait pas posée : il s’en serait occupé, point, avec un flou entre les sous de l’opérateur public, ceux de l’états et ceux des différents échelons territoriaux.

Là, avec des opérateurs privés, notamment l’opérateur historique qui a hérité du réseau national, la question est de savoir quoi faire. Un nouveau réseau privé (ou même plusieurs) ou un réseau possédé par le public et loué aux opérateurs (ou déployé par l’opérateur en DSP, le réseau final restant la propriété du public).


Le 08/11/2012 à 11h 24







brokensoul a écrit :



très loin d’un A15 quand même, ça reste in-order… Il faut le comparer aux S4 Pros à mon sens. Les benchs sont encore un peu en vrac avec le javascript, mais pas trop de doutes sur le fait qu’à terme il se fait pas mal poutrer par le Exynos 5 (dispo tout de suite). Sur le test Anandtech, sunspider n’était guère que le seul test dans lequel le A6 était devant (hors browsermark qui tire sur l’écran en 2560..). Test du Chromebook sur Arstechnica, 700ms pour sunspider sur ChromeOS, fin de l’histoire. Google doit sans doute bosser sur la partie logicielle, mais pas trop de doute sur le fait que le CPU est devant (et le GPU derrière).



Je me répète, mais pas d’accord, A15 (Samsung Exynos 5) déjà devant côté CPU. Ce qui n’enlève rien au mérite d’Apple, et à son GPU qui met les moyens…









Voici la comparaison Geekbench d’un A6X vs Exynos 5.

http://browser.primatelabs.com/geekbench2/compare/1259580/1248325



Effectivement, le A15 de chez Samsung envoie la puissance.

Et cela reste cohérent avec les premiers bench du Chromebook.







canti a écrit :



En voyant les bench, j’ai surtout l’impression qu’il y a un défaut d’optimisation avec 4.2 … aussi bien le S4 Pro que le A15 ont donné des perfs décevante (le S4 pro par rapport au LG optimus G, le A15 par rapport au chromebook)



C’est a se demander si ce 4.2 n’est pas une étape “petit bras”, avant la sortie de Key Lime Pie (une rumeur circulait sur le fait que KLP ait comme gros projet une optimisation de la consomation)







La différence entre ChromeBook et Nexus 10 était justement l’OS (Chrome OS vs Android 4.2), c’est clairement l’OS qui ralenti le CPU ici.

La question est donc de savoir si la “lenteur” de Android est temporaire (= 4.2 n’est pas top top optimisée) ou alors si c’est structurel, lié à son aspect mobile et donc que sur la même puce, ChromeOS sera toujours plus rapide que Android.



Dans le premier cas de figure, il faut espérer que Google va réussir à optimiser Android le plus vite possible. Pour l’accélération du GUI, on a vu que cela a nécessité de nombreuses versions et des changements majeurs de l’OS au niveau des ses API GUI. Espérons que ce ne soit pas aussi douloureux ici.



Dans le second cas de figure, c’est un vrai prob pour Android qui va devoir avoir des CPU de 10 à 20% plus puissants que ceux d’Apple pour avoir les même performances en usage courant (javascript, etc …).



wait ‘n’ see


Le 08/11/2012 à 11h 16







Alkore a écrit :



Comme dit plus haut, le T604 existe de 1 à 4 core. Tant qu’on ne sait pas le nbre de core que possède l’Exynos 5, on ne peut pas se prononcer sur l’efficience de l’architecture T604<img data-src=" />





Le Nexus 10 a un Exynos 5 Dual (ex-5250) : Mali T604 QuadCore.



Samsung engineers worked closely with ARM to create the quad-core Mali-T604, the most advanced mobile 3D engine to date.



Citation dehttp://www.samsung.com/global/business/semiconductor/minisite/Exynos/blog_13.htm…



Donc FAIL sur le GPU.


Le 05/11/2012 à 13h 59







Alucard63 a écrit :



En terme de CPU je suis prêt à mettre ma main à couper que les Krait vont être au dessus( pas du vu que c’est de simple A9 chez Apple ).



En terme de CPU…peut être les prochains tegra…et encore c’est pas sur.<img data-src=" />



En fait non. Perso j’ai été très surpris par les benchs du Nexus 10 qui est un Cortex A15. Je pensais au vu des résultats du Chromebook (Exynos 5 lui aussi) qu’il allait poutrer l’A6X, genre +50%, mais en fait ils sont dans un mouchoir de poche (genre +/- 5%). Et en GPU, le Mali T604 ne tient pas la route derrière un PowerVR 554MP4.



Et le A6 n’est pas un “simple Cortex A9” : c’est un A9 avec le FPU d’un A15 et un pipeline plus profond et une prediction de branchment custom Apple. Bref, c’est presque un A15, avec quelques mois d’avance. Apple et Qualcom sont les seuls avec une licence ARM qui leur permet de dessiner leur propre CPU plutot que de se “contenter” d’utiliser les CPUs standard ARM (A9, A15, etc …).



Perso, je pense qu’il va falloir encore 6 mois pour que les A15 soient courant chez Android et d’ici là, Apple aura gardé la couronne (ou partagé) de CPU le plus puissant. Et pour le GPU, ils risquent de la garder 1 an.



Bien joué Apple, Google, je suis deçu du manque d’ambition avec le GPU du Nexus 10.


Le 05/11/2012 à 13h 46

A5 (iPhone4, iPad2, iPad Mini) = CPU dual core Cortex A9 + GPU dual-core PowerVR 543

A5X (iPad3) ! CPU dual-core Cortex A9 + GPU quad-corePowerVR 543

A6 (iPhone5) = CPU dual-core custom Swift (mi chemin Cortex A9 et A15) + GPU tri-core PowerVR 543

A6X (iPad4) = CPU dual-core custom Swift + GPU quad-code PowerVR 554



Et on a Swift = 2x Cortex A9 et 554 = 2x 543 en puissance.

Et le tri-GPU de l’iPhone 5 est overclocké et donc équivalent au quad-GPU de l’iPad 3.



Votre article est confus : on a l’impression que le fait que le A6X contienne 4 GPU soit une surprise. C’était déjà le cas de l’iPad 3.

Le 08/11/2012 à 11h 02







Teovald a écrit :



Que ce soit sur l’appstore ou sur l’android market, l’immense majorité des apps ne rapporte absolument rien.





Majorité ou non, Apple a déjà redistribué plusieurs milliards de $.

Si en face, Google ne redistribue rien (parce que les clients ne veulent pas payer ou parce que les applis sont pourries), cela ne va pas inciter un développeur à faire de la qualité sur Android.





Teovald a écrit :



Le nombre astronomique d’apps sur les 2 plateformes veut juste dire que même pour une niche très particulière, il va y avoir un minimum de compétition (& donc de qualité) & pour les apps populaires, il va au moins en avoir une au niveau (cf Facebook qui a une app daubesque, mais des alternatives comme Friendcaster en profitent).



Par forcément,. Avec son filtrage éditorial, Apple rejette tout une classe d’app vide : réencapsulation de flux RSS, fond d’écran, sonnerie, comics/manga piraté, qui sont pourtant légion sur Android.



Avec du piratage, peu de visibilité et peu de revenu, au contraire, on peut avoir des développeurs qui ne s’aventurent pas sur Android et un vrai manque de qualité. La quantité serait alors remplie de qques apps corporate, sans gage de qualité (ex: FaceBook) et le reste rempli d’app daubesque, et peu/pas d’apps de dev indépendants de qualité, comme c’est le cas sur l’AppStore et ce qui fait son succès.


Le 31/10/2012 à 07h 55

Sur ces 25MM d’applis installées, on a l’info du cash qui a été reversé aux developpeurs (sans tenir compte des apps qui piratent le téléphone et envoient des SMS surtaxé en silence) ?



C’est ce qui est important : combien les devs vont pouvoir gagner sur cette plateforme et donc la qualité du travail qu’ils vont mettre dans ces apps ?



Si l’essentiel de ces 700k apps sont des apps avec du contenu débile et qui affichent 2 pubs faitent par des devs chinois qui sont venus sur Android car payer les 100$ annuels de l’AppStore n’était pas rentable, alors ce n’est pas intéressant.

Le 08/11/2012 à 09h 24







anihil a écrit :



Ce sont les chiffres des revendeurs qui alimentent les analyses dans ce cas.





Un revendeur ne voit que la petite partie du marché qui transite par lui. Cela peut amener des problèmes de représentativité. Par exemple, les Kindles sont vendus massivement par Amazon lui-même. Il faut donc tenir compte de la représentativité de chaque vendeur et faire des estimations et interpolations. Cela est donc de la sauce interne à l’analyste, forcément source d’erreur car il s’agit d’un chiffre inventé (certes basé sur une étude mais cela ne garanti pas sa pertinence).



Et les analystes ont prouvé par le passé qu’ils n’étaient pas omniscient et au contraire avaient plutôt tendance à se planter en beauté.







anihil a écrit :



Après qui dit que ces groupes n’ont pas fournit leurs chiffres ?



Eux-même : à part Apple, AUCUN autre fabricant n’accepte de divulguer ses chiffres de vente. Toutes les annonces de résultats trimestriels viennent de tomber et si les fabricants donnent le détails de leurs résultats financiers. Et pour Apple, si ils donnent le nombre d’unité vendues (et non envoyés aux distributeurs et revendeurs, ce qui peut faire un écart si un produit est massivement présents dans les rayonnages mais boudé par les acheteurs), ils ne détaillent pas chaque modèle mais regroupent par famille : Mac, iPod, iPhone et iPad. On ne sait généralement pas si ils vendent plutot des iPhone 4 ou des iPhone 5, des iPods Shuffle ou des iPods touch, etc … Pour le Mac, ils précisent cependant le % de portables (80% actuellement).



En face, la quasi intégralité des vendeurs de smartphones et tablettes ne précisent pas le nombre d’unités vendues.


Le 29/10/2012 à 15h 50

Question : vu que ni Amazon, ni Samsung, ni Google ni aucun autre fabricant de tablette ne fournit ses chiffres de ventes (smartphone ou tablette d’ailleurs) et que seul Apple le fait, comment est-ce que les chiffres de vente de tablette Android ont été obtenus ?



PS: ha si, fin Aout, Google annonçait 70k activations de tablettes Android par jour. C’est à dire 6M sur un trimestre et non les 10.2 annoncés dans l’article.

Le 08/11/2012 à 09h 15







animehq a écrit :



Il s’effondre pas du tout, sa valeur est relativement stable… Sur 1 ans on est même relativement bas…





Le taux USD/EUR actuel n’est plus égal au taux USD/EUR qui existait lors de la mise en place des prix de l’AppStore.



C’est tout.



CQFD.


Le 30/10/2012 à 12h 39







David_L a écrit :



Souvent tu paies moins cher par ce biais tout de même (B&You et Sosh font pas mal d’effort là dessus par exemple), et pas forcément avec une surcouche (sans parler des financement en 3/34/24 fois). Donc oui ça peut être utile :)



Ce n’est donc pas une question d’opérateur mais de marchands avec promo et facilité de paiement.

Faire une news à ce sujet, c’est faire perdurer l’idée que l’opérateur est le partenaire privilégié pour cet achat.



Comme il s’agit d’une question de prix promotionnel, il faudrait également que vous commentiez la disponibilité de tel ou tel appareil dans chaque magasin et des opérations promotionnelles disponible.


Le 30/10/2012 à 12h 36







lamor a écrit :



Sans parler de l’os (uniquement du hardware) qu’est ce qu’il a de plus qu’un Nexus 4 (par exemple) pour couter 2x le prix ?



Le LTE ?


Le 30/10/2012 à 11h 19

Il serait temps d’arrêter de vouloir passer par son opérateur pour acheter son mobile.



Vous achetez votre ordinateur chez Orange ou Free pour le relier à l’ADSL ? Vous achetez votre voiture chez Total ou BP ?