votre avatar

Skeeder

est avec nous depuis le 18 mai 2007 ❤️

1356 commentaires

Le 15/05/2013 à 09h 52







brazomyna a écrit :



Laminé n’est pas le mot ; et Free fait +40% de CA en un trimestre alors que la capitalisation a fait moins depuis le 1er janvier.



Free a une stratégie de volume, avec un ARPU globalement moins ‘goinfre’ que les opérateurs par le passé, mais avec des coûts de fonctionnement relatif vachement faibles (hors investissement initial qui s’amorti sur la durée). Et cette stratégie du volume fonctionne à plein, on le voit avec les recrutements.

(…)





Une stratégie de volume sur un marché à volume fixe (ou presque) c’est ça qui est sanctionné. L’ARPU est super faible, or pour les télécoms, c’est presque le seul indicateur qu’on regarde (car le seul consolidé et intéressant, l’AUPU et l’ARPA pourrait l’être aussi, mais pas consolidés par tous les groupes télécoms).


Le 15/05/2013 à 08h 58



Contrairement à ses concurrents, l’opérateur a, cette fois encore, recruté en masse avec 870 000 nouveaux clients



C’est juste pour faire mon chieur: la phrase devrait être “870 000 clients en plus”. Techniquement il y a plus de 870 000 nouveaux abonnés, par contre il y a sans doute des clients qui sont partis. Le résultat net est +870000.

Le 14/05/2013 à 19h 54







psn00ps a écrit :



Un stream de 5Mo/s en WiFi, bon courage à moins d’avoir du 802.11n <img data-src=" />





Oui, va falloir du 802.11n ou plus ça c’est sûr.


Le 14/05/2013 à 17h 22







methos1435 a écrit :



Un routeur ca route effectivement mais je suppose que pour streamer un jeu en live il faut faire très attention au temps que ça met. J’éxagère volontairement pour me faire comprendre mais si ton personnage réagit 3 secondes après avoir bougé ton joystick ca vaut pas le coup….



Donc il doit surement y avoir des optimisations au niveau du routeur pour eviter au maximums les traitements et les ralentissements.







Sachant que la console est en 720p, l’idée est de streamer 5Mo/s en plus d’avoir un protocole sans doute très bavards, ce qui est très pénible sur Wi-Fi. Cela dit, ce n’est pas impossible, je ping à 1ms sur mon serveur relié au routeur lorsque je suis en Wi-Fi n. Ce qui à mon avis risque d’être plus délicat c’est lorsque l’ordinateur et la console sont en Wi-Fi. Là pour le coup, en fonction des routeurs ça peut vite partir en sucette.


Le 14/05/2013 à 17h 15







Leum a écrit :



Je ne sais plus exactement quelle installation fut utilisée mais ce fut à équipement constant car ils se sont attaqués aux câbles. Je crois que c’était du Super Audio CD ou DVD Audio avec ampli Marantz mais le lecteur en lui même je sais pas. Mais bon un flux d’octet reste un flux d’octet, c’est l’ampli et les enceintes qui importent.



edit: si j’ai le courage de ressortir ce numéro, je te le dis ce soir.





Je n’en doute pas. En fait je ne débat pas dessus. Je comprend pas bien pourquoi j’ai été mis là dedans.







al_bebert a écrit :



perso j’ai QUE des câbles numérique pris sur ebay à vraiment pas chère et ils fonctionnent tous toujours nickel malgré pas mal de déménagement de bidouille de chat fouinneur d’enfant indélicats….







Pareil, mis à part un DP-&gt;DVI que j’ai reçu la semaine dernière, écran violet, testé sur plusieurs écrans/ordinateurs. 4,5€ le retour au UK (quasiment le prix du câble), ils viennent de m’en renvoyer un. Et aussi avec les Jack de merde, j’ai eu pas mal d’usure prématurée. Les seuls “bon” câble que j’ai acheté, c’était pour archiver de la vidéo analogique (et encore, c’était plus pour éviter les faux contacts et interférences lors de l’enregistrement plutôt que pour la qualité de l’image)


Le 14/05/2013 à 15h 31







Leum a écrit :



Justement Canard PC a récemment sortit un numéro ou ils parlaient de l’audio et des cables idiophiles. Ils ont justement utilisé ce terme…





Je ne parlais pas des câbles… Plutôt de la chaine audio digitale, de la source aux oreilles.



Les câbles numériques c’est connu que dès l’entrée de gamme tu peux avoir les même résultats que n’importe quel autre câble. En gros, soit y’a vraiment quelque chose qui va pas et ça s’entend tout de suite, soit c’est nickel. J’ai déjà eu des déboires avec des câbles très bas de gamme (genre 2€), et niveau fiabilité dans le temps certains sont très moyens (cassent plus vite). Mais globalement, depuis le numérique, on a grandement simplifié la gestion des câbles.


Le 14/05/2013 à 14h 19







fiool a écrit :



Ah pas bête, j’ai toujours du mal avec les DAC ^^ Merci pour le conseil <img data-src=" />





fr.wikipedia.org WikipediaAprès faut faire gaffe à la gestion du downmix. Si c’est l’ampli cinéma, généralement c’est bien fait, mais certains engendre du clipping, ça peut être très dommage étant donné que c’est le seul avantage à l’écoute de ce nouveau format par rapport à un CD. Dans ce cas il faut miser sur un DAC qui gère lui même le downmix et utiliser l’ampli cinéma en pass-through.


Le 14/05/2013 à 14h 10







ErGo_404 a écrit :



Ah et sinon toujours le même article qui ressort :

http://xiph.org/~xiphmont/demo/neil-young.html





Même si la conclusion est juste, il dit de belles conneries. Les explications sont loin d’être toutes correctes, avec de grosses confusions sur les théories d’échantillonnage, et surtout des hypothèses fortes qui sont certes tout à fait acceptables, mais non explicitées.

Tiens d’ailleurs si Canard PC pouvait nous faire un petit tour de l’audio digital à la manière dont ils ont traité les alimentations, ça serait top.



EDIT: au passage cet article ne traite pas tous les aspects de l’audio digital. Il manque notamment toute la partie sur la maitrise du gain audio par les normes audio cinéma, faisant écho justement au Loudness war.


Le 14/05/2013 à 14h 00







fiool a écrit :



Concernant les formats proposé sur le BD-A, quelle est la différence?



Il faut signaler qu’avec ces formats (PCM, Dolby True HD et DTS HD Master Audio) seul un ampli HC est compatible <img data-src=" />





Tu prend un DAC “audiophile” branché sur ton ampli cinéma et c’est plié.

Mieux, tu prend un ordinateur avec un lecteur Blu-Ray, et à partir de là, tu fais ta popote.

Moi ça sera matrices de downmix normalisée et personnalisée, avec une simple carte son pour casque et un bon casque. J’ai hate de tester le son en DTS pour voir si on entend effectivement bien la différence de compression dynamique par rapport au CD.


Le 14/05/2013 à 13h 15







Tim-timmy a écrit :



si. tu l’as juste loupée, ça arrive .



rapide recherche …

lemonde.fr Le Monde

lemonde.fr Le Monde

lemonde.fr Le Monde





le “Alors, euros(e)” je n’ai pas lu (je m’en souviens en plus). Le titre me semblait être un mauvais jeu de mot racoleur. Aucune idée qu’il s’agissait d’un nouveau billet de 5€. Le reste, je ne consultais pas encore les sites d’actualité, trop ancien (début janvier et 2012)


Le 14/05/2013 à 12h 39







psn00ps a écrit :



Tu étais aussi à l’étranger le 2 mai pour rater la news sur INpact ? <img data-src=" />





Non, mais sur PC Inpact, je ne m’attends pas à de l’actualité générale. Honnêtement, je consulte le site de lemonde.fr pour mes actualités quotidienne, et cette histoire de billet de 5€ n’a clairement pas fait les titres.


Le 14/05/2013 à 12h 15







psn00ps a écrit :



Bon alors pelle mèle :

http://www.lepoint.fr/societe/le-nouveau-billet-de-5-euros-mis-en-circulation-02…

lemonde.fr Le Monde

lefigaro.fr Le Figaro

Et plein d’autres <img data-src=" />





Cela m’apprendra à ne lire que Le Monde. L’article est trop vieux :







luinil a écrit :



Pourtant moi qui habite de l’autre coté de la planète et n’utilise jamais des euros en ai entendu parlé y’a plusieurs mois ^^’







Ceci explique cela (pour mon cas). J’étais à l’étranger il y a quelques mois, et j’avais d’autres choses en têtes que de m’intéresser à l’euro <img data-src=" />



Bref, cela montre quand même un petit manque d’information au moment où ces billets entrent en circulation.


Le 14/05/2013 à 10h 11







FunnyD a écrit :



Et de 3 qui ne regardent pas Jean-Pierre à 13 heures sur TF1. <img data-src=" />







Mine de rien, je regarde régulièrement les sites d’information, et cette histoire de billet, je n’en ai pas entendu parlé. <img data-src=" />


Le 14/05/2013 à 09h 54







KooKiz a écrit :



Quand je pense que j’ai appris son existence grâce à une news PCInpact <img data-src=" />







Je viens d’apprendre son existence, c’est pour dire …


Le 13/05/2013 à 19h 48







Latios a écrit :



(…)

Je sais pu qui est dans quel release, mais côté radio les nouveautés qui me viennent en tête c’est l’agrégation, MIMO jusqu’à 8*8, et Relay Nodes. J’ai oublié des trucs significatif ? <img data-src=" />

(…)





En fait, R10 est entièrement rétro-compatible avec R8 (et R9). Le MIMO 8x8 a été introduit effectivement avec R10, mais le 2x2 est déjà requis pour R8. Le moyen le plus simple donc, pour faire du LTE R10, c’est de d’agréger 4*LTE R8. C’est ce qui est fait par Megafon et NTT.

En fait, la 3GPP avoue a demi-mot que tout LTE est de la 4G en disant que LTE R10 c’est de la 4G; technologiquement parlant, c’est la même chose. Il n’y a guère que les téléphones qui sont pas vraiment compatibles avec le multi-carrier. L’infrastructure, les ondes, les antennes, etc. c’est les même <img data-src=" />


Le 13/05/2013 à 17h 18







Latios a écrit :



LTE Release 10 c’est la LTE Advanced, donc ta citation dit juste que la LTE Advanced c’est de la 4G, pas la LTE <img data-src=" />

La LTE qu’on déploie en France (et partout ailleurs) c’est la Release 8.



Cependant je suis parfaitement d’accord avec toi, j’en ai moi aussi marre d’entendre partout parler de “fausse 4G” et de “vraie/véritable 4G”.

Il ne faut pas oublier que les technologies c’est une succession d’évolution. La 3G au début c’était 384kbps, maintenant on est a 42 Mbps (et les normes 3GPP définissent plus encore).

La LTE est une rupture technologie avec l’UMTS (3G), comme l’était l’UMTS avec le GSM (2G), a ce titre elle mérite donc l’appellation 4G, puisque c’est effectivement la 4éme génération de technologies mobile à être déployée.



En fait cette confusion vient du fait que :




  • le 3GPP définit les technologies mobiles (d’autres technologies concurrentes existes comme le WiMAX et le CDMA utilisé aux USA notamment)

  • l’ITU définit les critères qu’une technologie doit remplir pour mériter l’appellation commerciale 3G (IMT-2000) et 4G (IMT-Advanced).



    Et il se trouve que la LTE (Release 8 et 9) ne remplit pas tous les critères que l’ITU a fixé pour l’appellation 4G. En revanche la LTE-Advanced (Release 10 et suivante) les remplies. Il est a noté que l’ITU lui-même a admis que la LTE (Release 8 et 9) pouvaient être considéré comme de la 4G au vu des évolutions prévues (LTE-Advanced / Release 10).



    Voilà pour la clarification <img data-src=" />







    La LTE R10, ce n’est que du LTE R8 ou LTE R9 agrégé. <img data-src=" />



    (Tout comme le Dual Carrier, seulement qu’en LTE tu peux mettre beaucoup plus de carrier pour atteindre les pré-requis LTE R10).



    Pour le coup, que le LTE R10 soit considéré comme de l’Advanced, ça va être très chiant, car le LTE R12 aussi appelé LTE-Advanced c’est pour moi le vrai plus par rapport au LTE R10/11.



    La 3GPP se sont chiés sur les dénominations, la GSMA utilise donc 4G pour LTE R8 à R11. On verra par la suite. R12 pourrait très bien être de la 4,5G.


Le 13/05/2013 à 15h 46

<img data-src=" /> avec votre “véritable 4G”.

La LTE c’est de la véritable 4G.

C’est même la 3GPP qui le dit depuis 2010 (avant ce n’était pas le cas) :



The 3GPP candidate technology submission for IMT-Advanced developed as LTE Release 10 & Beyond (LTE-Advanced) was today accepted as a 4G technology at the Chongqing meeting of ITU-R Working Party 5D, having successfully completed Steps 4 through 7 of the IMT-Advanced process in ITU-R, complying with or exceeding the ITU established criteria in all aspects.





Donc la LTE est de la 4G. Fin de l’histoire.

Le 13/05/2013 à 13h 58







RaYz a écrit :



(…)

Sauf qu’étendre le net par les utilisateurs c’est pas à la porter de tout le monde et ça nécessite des moyens très important, on reste dépendant des FAI et de ceux qui gèrent l’infrastructure, directement pour le réseau français et indirectement par tous les autres acteurs.





C’est pour cela que je parlais de la FDN ; exemple classique du fait que c’est possible. Le jour où on m’emmerde sur mon réseau étendu (i.e. Internet), je me fais le miens (i.e. je me regroupe avec une cinquantaine de râleur, et on se bouge le cul). C’est loin d’être infaisable, cela prend du temps par contre. Il y a d’autres solution de contournement (SSL/IPsec par ex) sans doute moins contraignantes, mais dans l’absolu personne pourra nous prendre notre Internet.


Le 13/05/2013 à 13h 47







fred42 a écrit :



(…soit…)



Par expérience professionnelle, quand on commence à jouer sur les priorités, c’est qu’on a un problème de dimensionnement et dans ce cas, il est techniquement efficace de prioriser des choses qui prennent peu de ressources mais qui ont besoin d’être traitées rapidement. Dans tous les autres cas, il faut augmenter les ressources.

Quand on parle de “culture” (au sens “moderne” du terme, c’est-à-dire vidéos essentiellement, la vraie culture, comme la littérature n’utilise que peu de bande passante), on parle de gros besoins de ressources, donc jouer sur les priorités est une connerie.





Là je suis pas d’accord, si on devait tout dimensionner pour subvenir au besoin maximal à chaque instant t, ça serait le délire. Je pense même que cela serait impossible. A l’heure actuelle il y a déjà de la QoS d’ailleurs, légère, mais nécessaire, et elle ne se fait principalement que sur les couches de bas niveauI. Si on défini des limites à cette QoS de plus haut niveau, je ne vois rien de quoi foutre en l’air tout le réseau.

Après, la question à se poser c’est surtout: est-ce-qu’une QoS bien délimité changerait vraiment quelque chose? Mon avis est que non: le goulot d’étranglement est autre part.


Le 13/05/2013 à 13h 42







RaYz a écrit :



Ok l’analogie <img data-src=" />





J’ai pas trouvé mieux dans le temps imparti, déso <img data-src=" />



Une conséquence de la neutralité du net ? Pour que le net soit neutre il faut brider Youtube c’est nouveau ça ?



Non. Ce n’est pas le débat ici, mais si on veut assurer la neutralité à tous les niveau, il faut bien que Google paye le surplus de son tuyau vers les FAI. D’un point de vu “basique” je trouve que Free fait bien de faire ce qu’il fait. (D’un point de vu consommateur, j’ai juste envie de partir chez Orange lorsqu’ils me mettront la fibre.).





<img data-src=" />



Je me pose de plus en plus la question sur la nécessité d’imposer la neutralité du Net. On peut devenir notre propre fournisseur d’accès à Internet, et définir ses propres règles, c’est justement là le côté ultra-redondant de l’Internet. On ne peut pas vraiment couper une portion, ou limiter un usage d’Internet. Par essence ce n’est pas possible. Il suffit donc d’une bande suffisamment motivée (et elle existe) avec une taille critique suffisante (et elle existe), pour s’affranchir de toute limite si elle ne nous convient pas.


Le 13/05/2013 à 13h 24







RaYz a écrit :



Une fois mis en place pour un service on peut facilement le faire pour un autre etc, etc… Imagine le bridage de Youtube en 20 fois pire et étendu au reste.





Ce n’est pas parce qu’on a inventé l’interrupteur, qu’il y a un gugus qui sva ‘amuser à couper régulièrement l’électricité de toute une ville pour son plaisir. Soit-dit en passant, on peut déjà facilement le faire, et le rapport à avec le bridage de Youtube est bizarre, car justement, le bridage de Youtube est une sorte de conséquence à la neutralité du NET. Dans tous les cas, tu peux t’affranchir de cela en changeant de FAI, et si tous les FAI le font, tu peux te créer le tiens, comme la FDN, il suffit de trouver suffisamment de râleurs, PCI en regorge, ça devrait pas être bien compliqué.







The F0x a écrit :



Hé bien c’est facile, imagine que demain tu développes un système génial pour faire un truc, comme par exemple une technique de check-up dentaire via internet (ne m’en demande pas plus je n’ai aucune idée sur comment le faire <img data-src=" />). Et bien sous prétexte que tu ne participe pas au financement de la création cinématographique française la qualité de service que tu pourras offrir a tes clients sera dégradée…. intéressant non? Et oui internet ça n’est pas que du contenu culturel. Mais si on écoute ces personnes là c’est tout ce qui est important pour eux, normal c’est leur fond de commerce.





C’est de la méga-extrapolation, si tu fixe des limites de QoS (vu que l’ARCEP est dans la boucle…), il n’y a pas de raison que cela se produise. Tu peux aussi réserver une haute priorité pour des services critiques (type SSL, puisque les banques l’utilisent, donc l’argent, donc pas touche à mon bourzouf). On fait ça en entreprise, et pourtant YouTube est beaucoup plus rapide au boulot que chez moi (Free inside…). Résultat, s’il y a des dérives, tout passera en critique, et donc cela enlève l’intérêt de toute QoS, ce qui fait qu’il s’agit en fait d’un système macro auto-régulé.



Il y a peut être des effets de bords, des trucs pas forcément super génial à tous les niveaux, mais de là à dire que c’est dangereux….


Le 13/05/2013 à 12h 54







RaYz a écrit :



Hum j’espère que ça passera pas ça par contre. C’est bien trop dangereux.





Vrai question: pourquoi cela serait dangereux? Je parle dans ce cas bien précis, avec le contrôle de l’ARCEP, et le fait que cela ne soit pas obligatoire etc.


Le 13/05/2013 à 13h 27







trash54 a écrit :



soit c’est pas vraiment lecture soit ils ont un très bon ophtalmologiste



car bon lire un ebook 5 minutes sur une tablette = rétine brulée





Je penche pour de la lecture occasionnelle (journaux, nouvelles pour faire passer le temps), ou couleur (Magazine, BD, livres de recettes…). Lire un livre en entier sur un écran rétro-éclairé, ça pique.


Le 13/05/2013 à 12h 20







FunnyD a écrit :



Je n’aime pas cette mode de l’“agressivité jounalistique” à la Bourdin, on peut poser des questions pertinentes et dérengeantes tout en étant cordial, et de la part d’un “petit” média comme PCI, être trop “agressif”, c’est le meilleur moyen de se voir fermer les portes au nez pour de futures interviews





C’est à double tranchant, d’un côté on se ferme des portes, de l’autre on obtient des réponses pertinentes lorsqu’on a une interview.


Le 13/05/2013 à 11h 52

Tout est loin d’être bête. Malheureusement certaines parties sentent le loby à plein nez, dommage…

Le 11/05/2013 à 14h 03







Maywen a écrit :



Ça nous fait un dealer dans chaque famille ! <img data-src=" />



Après, je conçois bien qu’il y ait un “facteur flemme”. Mais un quart de flemmards peu regardants sur le tarif à la minute, ça me parait encore trop. <img data-src=" />







25% de pdm ne veut pas dire un quart des gens. Tu peux avoir des doubles usages, et du M2M pré-payé qui fausse les chiffres. (ça te fait un client machine si tu veux)



Par exemple, pour mon serveur Web/Mail je pense prendre une clé 3G avec une carte prépayée dedans pour la connexion de back-up.


Le 11/05/2013 à 11h 36







Maywen a écrit :



Ma rationalité a du mal comprendre qu’avec un forfait à 2 € par mois, 2h d’appel et SMS illimités, il y ait encore autant de gens en prépayé. J’imagine bien qu’il y a un marché, mais presque un quart des clients, je trouve ça énorme.



Ah, si seulement tout pouvait être à 24 € par an (assurance voiture, loyer, mutuelle, facture d’eau et d’électricité, cinéma)… <img data-src=" />





Tu compte tous les dealer et les non-bancarisé et t’as ton compte. Bon ça en fait beaucoup <img data-src=" />



Je pense surtout que certaines personnes ont la flemme de changer. Mes parents ont gardé un forfait à 15€/mois pour 1h de com pendant 12 ans, car ça leur convenait, ils ont changé car ils ont reçu une lettre de Orange leur disant que leur ligne allait être coupée car encore sur le réseau 1G …


Le 11/05/2013 à 11h 33



Du côté des pays développés, les forfaits ont logiquement plus de succès. Néanmoins, le prépayé a encore une importance non négligeable. Aux États-Unis, où les forfaits mobiles sont parfois très onéreux, le prépayé est même en croissance, au point de devenir une base solide du marché, ce qui n’était pas le cas il y a quelques années.



La vrai raison du prépayé aux US, c’est que pour avoir un forfait, il faut avoir un historique de crédit solide (sinon le forfait n’est pas accordé), ce qui est de moins en moins le cas à cause de la crise, d’où la montée du prépayé.

Le 10/05/2013 à 15h 17







Manu114 a écrit :



Y a t’il du monde sur ce jeu encore ? ça va faire quelques temps que je ne l’ai pas jouer, et avant de le re-dl j’aimerai avoir qqs avis…





C’est l’avantage du tout Online, il y a encore plein de monde dans le jeu. Moi j’ai arrêté pour passer à Defiance, mais question jeu pas fini, je pense que c’est même pas comparable <img data-src=" />

Dès que la serie est terminée, je pense retourner à D3 (ça fait du bien de faire des pauses)


Le 09/05/2013 à 15h 19







Jonathan Livingston a écrit :



Je crois que le risque avec le passage de Dailymotion sous contrôle majoritaire américain ce n’était pas tellement la perte d’emploi direct ni de technologie, c’était plutôt la mainmise américaine sur un diffuseur de contenu “culturel”.



C’est un peu comme si la dernière chaine TV française ou le dernier journal français passait sous contrôle étranger sous le prétexte que sa survie dépendrait de son développement à l’étranger, donc de capitaux étrangers.



C’est le principe d’exception culturelle : la culture n’est pas une marchandise comme les autres, soumise à la loi du marché.



Juste un exemple : les entreprise américaines (Youtube, Facebook etc.) ont tendance à censurer des images parfaitement légales en France – et vis-versa. Je préfère qu’il y ait un peu de diversité.







En même temps, la majorité des usagers de DM sont américains. DM est avant tout d’un hébergeur dont son seul intérêt face à YT est sa plateforme de diffusion live plus aboutie. Le contenu culturel “français” peut être hébergé indifféremment sur YT ou DM ou Viméo, ou même par les chaines elles-mêmes qui le font très bien (par exemple le groupe canal). Je pense que 25% de DM restant français suffit largement à protéger le peu qu’il y a à protéger…


Le 09/05/2013 à 13h 41







Nithril a écrit :



Visiblement tu connais les détails. Tu peux en dire plus sur ces garanties?





Pas de suppression d’emploi en France (ils sont déjà en sous-effectif), et pas de délocalisation des locaux.

Je ne connais pas tous les détails, mais beaucoup de détails avaient fuité avant l’intervention de Montbourg, maintenant Dailymotion essaye de faire comme si ils pouvaient encore trouver un partenaire, et minimise l’impact de cette intervention.


Le 09/05/2013 à 11h 45







kail a écrit :



Je suis étonné qu’on dise que c’est franco-français. Car il n’est pas si rare de trouver sur dailymotion des étrangers.





Oui, le plus gros marché de Dailymotion, est le marché Américain par exemple…





RRMX a écrit :



Et ? Ou est le mal á vouloir défendre nos intérets ? Je vois pas pourquoi on devrait penser aux autres avant nous-memes.





Parce que dans ce cas ce n’est pas de la défense de nos intérêts qu’il en ressort. Quand un ministre Français convoque le PDG d’une grand entreprise américaine pour l’insulter et faire capoter un partenariat qui aurait protégé les intérêts français de Dailymotion (toutes les garanties avaient été établies par Orange et Yahoo); c’est juste idiot. Pas patriotique.


Le 07/05/2013 à 15h 06







misterB a écrit :



Location Only, ça va gueuler fort dans les studios et freelances qui passent rarement au final automatiquement d’une version à l’autre<img data-src=" />



Entre CS3 et CS4 la maj n’était pas vraiment necssaire, même entre cs3 et cs5 pour certains.



Là Adobe est en train de s’assurer un système de revenus aux dépends de ses utilisateurs <img data-src=" />







Peut être pour les quelques années de transition, mais si le développement du CC profite des apports du tout connecté, cela pourrait permettre de faire profiter de chaine de pré/post prod plus complètes au Studio.

Quand je vois les prémisses de Prélude et les interactions entre AE, PP, PS et IL; il y a moyen d’en faire quelque chose avec un bonne valeur ajouté, qui justifierai le tarif de location. En plus, pour certains Studio/Freelance, les projets peuvent être court et ne pas nécessité d’avoir 10 machines avec toutes les licences en permanence (ce qui coûte chers) juste pour les rendus ou les mecs de passage.


Le 07/05/2013 à 14h 02







FREDOM1989 a écrit :



Microsoft c’est pas une grosse boite comme Apple, ils ont pas encore eu les moyens de rendre l’os indépendant de la résolution, faut leur laisser encore 45 ans à ces petits artisans …



J’atend de voir les prix pratiqué parce que bon chez sony ça a vite tendance à déconner sec niveau tarif alors que leurs machines ne sont pas plus fiable ou durable que Asus ou Terra (mais les Terra sont laid en comparaison je l’admet)





Biensûr que si, cela fait depuis Vista qu’on peut régler la taille des polices écrans et des ressources (Xp c’était que Police si mes souvenirs sont bons).

Le HiDPI n’est pas géré de la même façon que sur OSX. Chez Apple, toutes les ressources sont obligatoirement au format de taille maximale (+220% si mes souvenirs sont bons) et downsizé pour s’adapter à la taille de l’écran, chez Microsoft il faut une ressource par format pour la partie Desktop. (La partie métro c’est essentiellement vectoriel). Du coup, la plupart des programmes bien dévelopés fournissent les ressource sen 100%, 125% et 150% (depuis Vista), et depuis Windows 8, on voit en 200%. Sur Windows 8.1 on aura le droit à une gestion plus fine, qui devrait pouvoir permettre d’utiliser les ressources 225% pour toutes les tailles en dessous si ce dernières ne sont pas dispo.



EDIT: d’ailleurs la plupart des ordinateurs portables en Full-HD de 14” à 16” sont réglés par défaut en 125%


Le 07/05/2013 à 11h 27







nicolasdi28 a écrit :



et après, ils s’étonnent du tipiak ….

si on fait le compte, ça fait 40€ le jeu, 400€ d’extensions et 160€ d’ kits

soit 600€. un peu cher pour un enfant, non ?

Bon après ils ne sont pas obligé de tous les avoir mais bon …





C’est comme les Playmobil ou les barbies, t’es pas obligé de tout lui acheter <img data-src=" />


Le 07/05/2013 à 09h 44







lecybermax a écrit :



Quel succès :)



Il n’empêche que beaucoup ne sécurisent pas assez leurs comptes les plus critiques.





Une boite vocale, ce n’est pas très critique.


Le 07/05/2013 à 08h 54







Drepanocytose a écrit :



Faudra voir à quel point Intel fera des concessions pour imposer son Silvermont.

S’ils en veulent vraiment, c’est possible.





Oui, ils l’ont bien fait pour les smartphones, où ils ont bradé leur SoC.


Le 06/05/2013 à 20h 57







David_L a écrit :



AES-NI est déjà intégré à des Atom ?





Tout dépendra des implémentations, qui n’ont pas été détaillées pour le moment ;) Il faudra voir ce qu’il en est quand on parlera des produits qui seront effectivement proposés pour les différents segments.





Autant pour moi, j’ai confondu <img data-src=" /> J’avais juré qu’ils seraient dispo pour Z27XX


Le 06/05/2013 à 18h 44







Ohax a écrit :



Hummm AES, SSE 4.2, il ne manque plus qu’à savoir si le décodage H265 en hardware est de la partie et je craque pour mon futur PC de salon… <img data-src=" />





L’AES est déjà présent dans les atoms actuels. Qui n’ont d’ailleurs pas à rougir de leurs performances. Génération après génération Intel rattrape son retard et il se pourrait même qu’avec Silvermont Intel domine d’un point de vu performance/consommation. En tout cas, on voit qu’ils mettent les bouchées doubles, à partir de Airmont, les CPU de bureaux n’auront plus d’avance technologiques sur le procédé de gravure.


Le 06/05/2013 à 17h 33







Takoon a écrit :



La pub c’est le cancer du cerveau humain.



Pour ce qui est de la survie des sites, on disait la même chose pour la télévision.

Bilan, les chaînes les plus merdiques/pourries/asservies/corrompues sont celles subventionnées par la publicité.



Donc Mr Niel a raison à mon avis.





Quel raisonnement fermé d’esprit. A l’heure où on commence a avoir conscience de la limite des ressources matérielles, la publicité, créatrice de valeur intangible, me semble plutôt éloignée d’un cancer.


Le 06/05/2013 à 16h 00







Dez a écrit :



Je pense qu’il ne faut pas prendre cette news au premier degré. En particulier la remarque de XN :



Qui est symptomatique du problème : rien dans la loi ne l’interdit de mettre en oeuvre cette pratique. Car la neutralité n’est pas présente dans la loi.



Certes, c’est sûrement bénéfique pour Free d’une manière ou d’une autre, mais moi je vois ça comme une piqûre de rappel au gouvernement, comme quoi il serait temps de légiférer sur la question une bonne fois pour toute.







Moi je trouve ça pas plus mal. Je ne vois pas pourquoi il faudrait une lois dessus. Si tu n’es pas content de ce que ton fournisseur de tuyaux fait avec ses tuyaux (perring etc.) rien ne t’empêche de monter ton asso comme la FDN, et de devenir ton propre FAI avec une bande de potes motivée.

Ce que la loi devrait spécifier c’est une transparence totale sur les niveaux de peering, sur les filtres, les QoS appliquées, les débits moyens avec les opérateurs de transit etc.


Le 06/05/2013 à 15h 54







Gleipnir a écrit :



Sauf que ce que la raison la plus souvent évoquée, c’est quelque chose du genre : “Pourquoi dépenser des sous pour quelque chose qui fonctionne encore de manière convenable ?” . Et ce n’est pas totalement faux…

Dans un cadre pro, la plupart des boîtes se fichent complètement de mettre à jour le parc des machines (sauf panne), vu que l’utilisation bureautique n’est pas vraiment gourmande en terme de perf brute. Mettre à jour pour le plaisir de mettre à jour, ce n’est pas économiquement intéressant.

Au final, on en revient au débat sur l’obsolescence programmée.



Question : est-ce à l’utilisateur de s’adapter à la technique, ou à la technique de s’adapter à l’utilisateur ?





Ce n’est pas “mettre à jour pour mettre à jour”. Tu as tout le plan sécurité qu’il faut prendre en compte, et la rationalisation des coûts aussi. Avec des systèmes plus récents, tu peux employer des technologies moins couteuses, tout en simplifiant la gestion de la sécurité. En passant de Xp à 7 tu peux aussi significativement améliorer l’expérience utilisateur, et donc ta productivité.

Je pense que si certaines DSI en sont encore à Xp, c’est plus par flemme/manque de compétences que par soucis d’économie.


Le 06/05/2013 à 11h 26







krustyleclown a écrit :



D’après ce que j’ai cru comprendre, WP8 serait supporté par Good Technology dans le courant de second semestre de cette année, mais je ne sais pas si la solution offrira les mêmes features que sous IOS et/ou Android <img data-src=" />





Courant du second semestre, c’est franchement long quand même… J’espère qu’il y aura toutes les fonctionnalités du coup.


Le 06/05/2013 à 09h 36







krustyleclown a écrit :



Il ya un début de quelque chose notamment viaBitLocker et un partenariat avec Good Technology pour les emails.





C’est une bonne nouvelle, j’attendais d’avoir Good sur mon WP8


Le 04/05/2013 à 08h 08







metaphore54 a écrit :



On a déjà une zone sécurisé, mais pour les enfants. <img data-src=" />



Plus sérieusement, J’espère que ça va arriver avec la version 8.1.







Il manque le VPN aussi. Après niveau sécurité, WP8 est facilement gérable depuis l’AD, ce qui manque c’est un système de cloisonnement logique entre Pro/Perso. Des applications tierces peuvent le faire cela dit.


Le 05/05/2013 à 09h 27







tmtisfree a écrit :



Soit, mais ce n’est pas vraiment une explication en lien avec :



qui est complétement faux.





Si tu coupes mes phrases, oui, elles peuvent devenir complètement fausses.<img data-src=" />


Le 04/05/2013 à 17h 49







tmtisfree a écrit :



La physique classique est morte il y a ~ un siècle. Elle n’est que l’émergence (par décohérence) de phénomènes quantiques (ie probabilistes) sous-jacents dans la (macro-)réalité. Penser pouvoir décrire un phénomène quantique autrement que quantiquement est aberrant.







Bon, y’en a qui se sont chargés de faire des remarques, mais globalement ce que je voulais dire, c’est qu’on est encore capable, moyennant hypothèses (issues de la physique quantique…) de travailler sans faire appel à la mécanique quantique pour bâtir un microscope à effet tunnel. D’ailleurs les premiers ont été construits à l’aide de mécanique classique tout simplement pour pouvoir résoudre les équations. Aujourd’hui lorsqu’on dit “faire appel à la physique classique” c’est sous-entendu utiliser les hypothèses simplificatrices qui permettent d’éviter les équations lourdes de la physique quantiques. Cela ne veut pas dire qu’on en fait fi.



C’est aussi une approximation de langage, et tu as fait exprès de ne pas comprendre ce que je voulais dire au vu de tes diplômes. Quand on vulgarise, on va employer les termes “classique” et “quantique” de manière bien différente. <img data-src=" />


Le 04/05/2013 à 14h 06







paradise a écrit :



Oui, ce qui fait que ce qu’on voit sur la photo n’est pas “réel” : on ne peut pas “voir” un atome, même pas “voir” une molécule de monoxyde de carbone, molécules qui ressemblent sur la photo à des billes d’acier éclairées à 90°, mais ça c’est l’effet tunnel qui permet d’obtenir une image visible triviale.



Bref, ce que l’on voit sur la photo, n’est qu’une photo qui rend ce que donne l’effet tunnel, pas la réalité.



J’espère que je me fais comprendre ? <img data-src=" />





Oui mais l’effet tunnel rend compte de la réalité <img data-src=" />


Le 04/05/2013 à 12h 27







tmtisfree a écrit :



On commence seulement à explorer le domaine quantique. Les retombées de l’avancement de la Science et de la technologie dans ce domaine pourraient être faramineuses (un paradigm shift comme disent nos amis anglo-saxons).





Au passage, le microscope à effet tunnel utilise un phénomène quantique, mais que l’on peut décrire entièrement avec de la physique classique, on est pile à la limite entre mécanique classique et quantique.


Le 03/05/2013 à 13h 01

C’est pas parce que t’as une carte SIM 4G, que tu vas capter le réseau 4G. Cela permet juste d’éviter de changer de carte SIM si tu change de forfait.