votre avatar

Skeeder

est avec nous depuis le 18 mai 2007 ❤️

1356 commentaires

Le 25/04/2013 à 12h 47

On commence à s’éloigner de l’idéologie “juste ce qu’il faut”.

Le 25/04/2013 à 12h 30







dfzefsfsrg a écrit :



J’ai vu dans un autre article qu’il pouvait résister à des accélérations de 400 à 1000G.

Par contre, j’ignore combien de G peut prendre un appareil qui tombe à hauteur d’homme, ça dépend beaucoup de la vitesse à laquelle il s’arrête.





Il prend 1G*le nombre de mettre de sa chute. En gros, il tombe à 1 mètre -&gt; 1G, il tombe à 2 mètres 2G <img data-src=" />

Après faut voir d’où viennent ces “G”, si cela représente vraiment un choc, ou une vibration. Un choc à 1000G ça équivaut à peut prêt à une vitesse de 10 000 m/s <img data-src=" />

Donc c’est sans doute des chiffres de résistance aux vibrations <img data-src=" />


Le 25/04/2013 à 12h 18







arno53 a écrit :



C’est sure que rien n’est efficaces a 100% mais c’est limité ces contournements a une poigné de technophile, la majorité des madame michu s’y arrete. C’est une securité pour les ayants droit. Comme l’anti-vol est une securité pour le supermarché/vendeur/producteur qui se protege contre le plus grands nombre meme si mettre du papier d’alu dans un sac peut empeché le fonctionnement de l’anti vol mais là on a affaire a quelqu’un qui le cherche délibérément (comme celui qui casse le DRM) .





Comme souligné plus haut, la différence en informatique c’est qu’il suffit d’une personne pour que cela soit à la portée de tous. C’est comme si quelqu’un allait dans un supermarché voler une tablette de chocolat, mais qu’à partir de ce moment il devenait distributeur gratuit de tablette de chocolat.



Du coup j’ai faim.


Le 25/04/2013 à 11h 35







arno53 a écrit :



ok le proprietaire CayLeMal mais a un moment va falloir trouvé une solution … L’economie culturel numerique marche sur la notion d’economie de rareté et, à moins qu’on fasse une licence global planétaire, il y’aura toujours des DRM …



Et tant qu’on résout pas ce problème, on aura encore besoin de flash/silverlight …



Sinon y’aurait pas moyen de repousser le problème sur le systeme plutôt que sur le navigateur ? Faire comme pour la balise video des navigateurs : c’est le systeme qui fournit le codec h.264 et non le nav.



Ca permettrait au navigateur FF, chromium etc de rester libre et open source et le problème ne se limiterait plus qu’au distribution linux full libre et open source (Windows, Mac, Mint et toutes les distribs avec du code propriétaire marcherait ..)





Le problème c’est qu’on ne peut pas à l’heure actuelle faire de protection efficace avec le DRM. On peut contourner de manière très simple la plupart des protections; le HDCP est le système le plus coriace qui eu existé, et on peut aujourd’hui le contourner facilement (avant c’était plus dur, mais faisable).



Du coup s’il s’agit de verrouiller les portes lorsque les fenêtres sont ouvertes c’est idiot, en dehors même du fait que verrouiller l’accès l’était peut être dans le fond.


Le 25/04/2013 à 09h 52



Après, on commence à les connaître Sony (ex Sony-Ericsson) …. :





  • X10i sorti sous 1.6 puis MAL 2.1 très en retard sans multitouch, puis 2.3 encore plus tardive sous la pression des utilisateurs





    J’avais le X10i, et ce n’est pas exactement cela. Le Tel est sorti sous 1.6, il devait avoir une mise à jour vers 2.0, qui a été retardée de 2 mois au profit de la 2.1.

    Trois mois plus tard il y a eu une mise à jour pour le Multi-Touch sous 2.1. (Qui était un Dual Touch en fait à cause des limitations du téléphone). Cela devait être la dernière mise à jour du téléphone.

    Alors que ce n’était pas attendu du tout, Sony a annoncé la disponibilité de la 2.3 en faisant l’impasse sur quelques fonctionnalité logicielles du téléphone car incompatible avec la 2.3.

    Au final, 2.3 était trop gourmand pour ce téléphone (comme l’avait annoncé Sony d’ailleurs), et les meilleures ROM étaient sous 2.2 (MIUI par exemple).

Le 25/04/2013 à 09h 44







luxian a écrit :



C’est pas trop tôt j’ai envie de dire ….



Microsoft aurait-il enfin compris l’intérêt de la fonction “mount” ? C’est beau l’évolution !



Aussi désopilant que l’invention du copié/collé par Apple dans les iPhones !







Ou le Couper/Coller dans OSX <img data-src=" />


Le 25/04/2013 à 09h 37







Mika_El a écrit :



Je me suis fait la même remarque. Pourquoi une implémentation si tardive…!? Enfin le “mal” est réparé, bien leur en a pris !







Je pense qu’ils ont récupéré le travail fait sur Windows 8. C’est vrai que c’est pratique, et ça évite de se coltiner un utilitaire usine à gaz pour monter des .iso.



Je me demande si c’était pas déjà possible de le faire sur PowerShell d’ailleurs (en ligne de commande).



EDIT: si, ça avait l’air faisable, mais pas des plus aisé.


Le 25/04/2013 à 08h 50







Mustard a écrit :



Tu plaisante, c’est probablement l’un des smartphones qui innove le plus depuis 1 an.

coté hard, on atteint une résolution Full HD, un processeur qui fait largement le taf, un APN à 13Mpx. Après pourle reste il faut reconnaitre que les smartphoe ont atteint des limites et il ne faut plus attendre de révolution.

Reste le coté soft, tu as vu les fonctions photo ? certaines sont innovante, et la fonction de suivi des yeux avec pause lors d’un visionnage vidéo. sympa aussi la fonction qui reconnait la position du doigt et active sans appuyer, idem quand tu veux faire défiler les images en passant simplement la main devant l’appareil.

Bref il existe comme ça toute sorte de bonne chose, encore faut il se renseigner au préalable avant de dire n’importe quoi

Tiens, une petite présentation des nouveautés du S4

http://www.clubic.com/video/prises-en-main/video-samsung-galaxy-s4-presentation-…





Tout ce que tu présente existe déjà. Le pire c’est que l’ensemble existe déjà dans un téléphone concurrent déjà sorti qui s’appelle le Sony Xperia Z. Sinon d’autres téléphones ont déjà au moins une de ces caractéristiques (Full HD, suivi du regard, position du doigt sans touché, 13 Mpixel).


Le 25/04/2013 à 08h 43



Il ne semble donc pas question de céder Dailymotion à une autre société à écouter Stéphane Richard.





Cela fait plusieurs news que vous répétez ça, et là pourtant, c’est une énorme contradiction dans vos propos.



Vous montrez dans cette news que l’Etat, avec environ 25% de part chez Orange est un actionnaire influent.



Dernier paragraphe, vous dites que Stéphane Richard, souhaite qu’Orange reste influent sur Dailymotion et donc qu’il ne cédera pas plus de 50% …





Nous resterons un actionnaire influent de Dailymotion





Pour moi ça veut dire entre 25 et 100%. Donc le Yahoo à 75% rentre tout à fait dedans.

Le 24/04/2013 à 16h 06







Para-doxe a écrit :



Toi, t’as jamais vue comment peut fonctionner un tribunal dans les litiges sur les brevets. Ça peut vite tourner au vinaigre alors même que tu partais gagnant.







Non, mais fallait que je fasse le jeu de mot. <img data-src=" />


Le 24/04/2013 à 15h 46







Para-doxe a écrit :



T’as beau avoir une armée d’avocats, aller au procès c’est toujours prendre un risque. Et le risque tu le prends pour toi mais aussi à la plce de tes concurrents qui eux n’auraient rien à payer pour faire invalider les brevets. Dans une telle situation, le choix de payer bronché reste le moins risqué.





Si c’est injustifié je ne vois pas où est le risque. Un peu paradoxale ton argumentation.


Le 24/04/2013 à 15h 01







TizeN a écrit :



Ah bah voilà quelques chose d’intéressant, si tu avais le lien ce serait même parfait! <img data-src=" />





Arf, risque de petite confusion: la liste des brevets que détient Microsoft est disponible sur le site de Microsoft. Pas la liste des brevets qui sont en question dans cet accord. Désolé pour la fausse joie. Je parlais de croiser les références pour tomber sur un brevet qui puisse sans aucun doute rentrer dans cet accord. <img data-src=" />


Le 24/04/2013 à 14h 54







TizeN a écrit :



Je n’ai jamais dis le contraire, mais jusqu’à maintenant je n’ai vu nul part la liste de ces fameux brevets qu’ils revendiquent. J’attends donc cette liste.

Pour le moment personne ne peut dire si oui ou non c’est du pipot sans ça.



S’ils la sorte un jour je réviserai mon jugement, en attendant ça reste du vent pour moi.





La liste des brevets est disponible sur le site de Microsoft, il suffit d’en trouver un qui soit censé et que les constructeurs Android utilisent pour justifier la licence.


Le 24/04/2013 à 13h 20







HarmattanBlow a écrit :



Un mot de passe unique ? Plus vulnérable tu meurs !

Rien ne m’empêche de programmer mon ordinateur pour qu’il envoie ton ADN. Les infos biométriques devraient à tout prix être évitées pour les authentifications à distance puisqu’on ne peut pas se fier à la machine qui envoie le code.





En revanche, développer les authentificateurs, pourquoi pas.





Surtout que l’ADN c’est possible de le falsifier. Comme absolument tous les moyens de reconnaissance biométrique. Je pense encore que la mémoire est le moyen de sécurité le plus sûr si bien utilisé, c’est pas demain la veille qu’on pourra lire à l’insu d’une personne, sa mémoire (contrairement aux autres moyens biométriques).


Le 23/04/2013 à 21h 38







woshi a écrit :



Ca ne me choque pas plus que ca mais je ne comprends pas le but de cette offre. le placement de B&You me semble plus judicieux que cette offre de Sosh. J’ai un forfait Sosh et le cinéday est vraiment un attrape nigaud (valable uniquement le mardi!). Je te d’accord par contre pour les hotspots !





Moi j’aime bien le Cinéday, comme quoi, il en faut pour tous les gouts <img data-src=" />

Par contre les hotspots, bon… A l’étranger à la rigueur…


Le 23/04/2013 à 16h 00







OlivierJ a écrit :



(…)

Je pige pas bien ton histoire de limite de normalisation. On peut augmenter le volume du signal enregistré, mais à un moment ça sature, donc il y a une limite bien présente.

S’arranger pour augmenter le niveau sonore juste en-dessous de la limite (parce que lors de l’enregistrement on a pris une marge trop importante), pour permettre par exemple une meilleure écoute sur baladeur en environnement bruyant, ça ne me choque pas, et si c’est bien fait (avec un traitement du signal qui va bien), la différence de qualité est indiscernable.

(…)





Lorsque tu fais ton enregistrement, tu applique deux chose :

Un gain, qui permet de supprimer la marge, si c’est bien fait, aucune différence (pour l’écoute) -&gt; maximalisation.

Une normalisation (ce n’est peut être pas le terme le plus exacte) qui permet d’augmenter le volume moyen. Cette étape s’appelle aussi compression dynamique. Cela va augmenter le volume moyen (c’est très utile évidemment), le risque c’est d’en abuser lors du mastering, comme c’est le cas dernièrement sur les CD. A tel point que la dynamique peut être meilleure sur Vynil, format pourtant pas vraiment réputé pour ses qualités sonores…

A l’heure actuelle les CD (et les musiques mp3/flac) sont masterisées pour l’écoute sur baladeur, c’est “idiot” d’un point de vu audiophile, ça devrait être au baladeur d’effectuer la compression si besoin. Mais les baladeurs étaient pas assez puissant, et cela engendre une sur-consommation.

C’est pour cela que l’idée d’un format adapté aux Audiophile (le format de la news), quitte à embarquer toute sorte de gadgets inutiles* (24bits/192kHz, etc.), pourrait au moins permettre d’avoir quelque chose de propre pour nos oreilles :).



*Inutile pour l’écoute. Pour l’édition, le 24192 est quand même plus adapté.


Le 23/04/2013 à 13h 28







OlivierJ a écrit :



(…)



Je pense que tu parles de CD de variétés, où la dynamique est faible voire inexistante. En classique on touche le moins possible au son, et on s’arrange pour garder une marge entre le fortissimo et le max enregistrable, ce qui fait que même au fortissimo ça reste moins fort que de la pop généralement.



Une dynamique de 90 dB (96 théoriques avec le CD) c’est énorme, ça permet de faire largement tenir une oeuvre comme la 9e symphonie de Beethoven, et il y a une sacrée différence entre les pianissimos et les fortissimos, à tel point qu’il faut monter le son dans les premiers et baisser dans les seconds.

Le 24 bits ne sert absolument à rien à l’écoute, c’est juste du gâchis.



Quant aux histoires de son DTS ou je ne sais quoi, je n’ai jamais compris l’intérêt, à part booster les basses en “home” cinema.



(…)





Oui je parle de variété, pop, musique électronique même, ou d’une bonne partie de la musique sur CD/Flac/mp3. Puisque le support final est souvent un lecteur mp3 faiblard au niveau de la sortie son, l’astuce est souvent de normaliser à 90dB (voir plus), pour que même dans le métro tu puisse écouter ta musique. La raison c’est que pour le CD il n’y a aucune limite de normalisation, ce qui n’est pas le cas pour le DTS, qui impose une limite assez forte.



En gros, le DTS te permet d’assurer une qualité, alors qu’a priori, pour un CD ça peut être très mauvais. Il n’y a pas que la musique classique dans la vie, et les audiophiles n’écoutent pas seulement ça <img data-src=" />







Tourner.lapache a écrit :



Ah okay, pas capté que tu parlais de l’utilisation du CD et pas du format en lui même ! ^^

Donc en gros, le seul avantage du DTS c’est qu’on oblige les ingé du son à ne pas faire de la merde avec le format.







Voilà <img data-src=" />


Le 23/04/2013 à 13h 08







Tourner.lapache a écrit :



Sachant que 20 dB c’est le son produit par une brise légère donc quasi inaudible, tu rajoute 90 dB et on est déjà pas loin du seuil de douleur, donc 90 dB de dynamique non c’est largement assez !





Ne pas confondre Dynamique et Dynamique effiace. Ton oreille a une dynamique efficace d’environ 60dB. En gros si tu écoute un son avec une moyenne de 90dB tu es en pratique capable de faire la distinction entre 60dB et 120dB (même si là 120dB t’as mal). Si ton CD est à 96dB, que le son est normalisé à 90dB ça te laisse environ 12dB de dynamique efficace. Donc en compression de dynamique le CD est vraiment dégueulasse. Le DTS est une norme qui oblige a avoir une dynamique efficace de 40dB ou plus, c’est pour cela que les musiques dans les films paraissent de meilleure qualité.



A noter, ça fait longtemps que j’ai pas regardé cette histoire, on compte peut être différemment la dynamique efficace, mais les rapports sont bons (c’est peut être 30dB, 6dB et 20dB respectivement pour l’oreille, le CD et le DTS).



Si le CD n’était pas normalisé à 90dB mais à 80 comme ce fut le cas il y a quelques années, cela serait beaucoup mieux.


Le 23/04/2013 à 12h 45







forezjohn a écrit :



Les tests en aveugle ont montré que les auditeurs préféraient très majoritairement le son CD au vynil, et ceux qui sont réellement capables de percevoir la différence entre un CD, un DVD audio ou un SACD sont trop peu nombreux pour représenter un marché.

Bref on va nous balancer des chiffres et des termes techniques à foison pour un produit qui ne fera aucune différence de qualité sonore pour 99.99% de la population.









myahoo a écrit :



Actuellement le CD est la combinaison PCM 16 bits, stéréo, fourchette de fréquences entre 0 et 44,1 kHz.



Sachant que l’ouïe humaine est entre 20 Hz et 20 kHz, le passage à un nouveau système n’apporterait pas grand chose. L’effet 3D, la profondeur, à la limite ? Même pas, puisque cela était déjà là avec SACD et DVD audio.









OlivierJ a écrit :



J’attire ton attention sur le fait que l’échantillonnage se fait à 44,1 kHz, ce qui permet de reproduire des fréquences jusqu’à la moitié de cette fréquence, soit 22050 Hz ; une fréquence qui de toutes façons est supérieure aux 20 kHz que nous entendons déjà fort peu, surtout avec l’âge. Cette marge de 2 kHz permet au filtre passe-bas d’être plus doux. Des explications détaillées ici :en.wikipedia.org Wikipedia(cf “Why 44.1 kHz?”).



Le CD, avec sa dynamique de 96 dB et sa bande passante de plus de 20 kHz est déjà plus que suffisant pour reproduire fidèlement le son pour l’oreille humaine, il n’y a que dans de rares cas, en classique avec beaucoup de dynamique comme la 9e symphonie, qu’on doit pouvoir approcher les limites (qualité dans les pianissimos). Pour les 90 % des gens qui n’écoutent pas de classique, la qualité CD ne sert à rien.







Malheureusement ce dernier point est faux. Aujourd’hui la plupart des CD sont “normalisés” vers 90dB, ce qui fait que la dynamique efficace est faible. Trop faible.



Un test super simple, vous prenez un James Bond avec un son en DTS, écoutez le générique. Écoutez la même musique sur un CD –&gt; différence flagrante. (Si vous avez un casque, il faut utiliser une matrice de downmix normalisée, et ajuster le volume pour qu’il soit le même entre le CD et le DTS, il faudra sans doute baisser celui du CD).



L’avantage que peuvent comporter ces formats de “Haute Fidélité” c’est que parfois (mais pas tous le temps), ils ne normalisent pas à 89dB, et donc la dynamique est bien meilleure. De plus, la plupart des cartes son ont maintenant un SNR &gt;110dB et les bons casques sont aux alentours de 100dB, donc le 24bits permet une meilleure dynamique (encore faut-il que la musique requiert une telle dynamique)


Le 23/04/2013 à 10h 05







Drepanocytose a écrit :



On peut aussi tourner ca dans l’autre sens et dire qu’Apple choisit des sous-traitants pas fiables, et que donc la “faute” est au moins partagée….





Bof, je vois pas trop comment on peut imputer cela à Apple, même en retournant dans tous les sens le problème. Apple donne un cahier des charges avec des specifs précises, le fournisseur dit s’il peut faire ou pas. S’il dit qu’il peut faire, il s’engage sur les specs, si en qualité les specs ne sont pas celles attendues, Apple renvoie au fournisseur (ce qui s’est passé).


Le 23/04/2013 à 09h 27

Aaaah, La fonction recherche est exactement comme elle devrait être <img data-src=" />

Content qu’ils aient écouté les utilisateurs sur ce point.

Le 22/04/2013 à 16h 00







djshotam a écrit :



Si ils taxent la bande passante, ils réagiront forcément, par exemple en compressant et en dégradant la qualité audiovisuelle des médias que l’on consomme.

Résultats on aurra acces a un sous internet, moins beau, imaginez un peu si youtube ne nous propose plus de videos hd ou hd1080p…<img data-src=" />



Et pas sur que passer par un vpn contournera le problème…<img data-src=" />







C’est surtout que s’ils taxent sur la bande passante, la solution existe déjà: le CDN. C’est déjà utilisé, ça le sera massivement, du coup pour les services de minitel 2.0 à la Youtube, y’a peu à craindre, avec suffisamment de CDN, la BP de Youtube USAFrance sera assez faible pour représenter autant que la BP France USA (upload de vidéo, commentaires, etc.).



Je trouvais la taxe sur les données personelles bien plus intelligente: tu as des clients français qui sont en France, tu te fais du fric avec eux, tu paye des impôts dessus. –&gt; nickel. Car la solution serait de dire “Oui mais l’utilisateur ne me rapporte rien” –&gt; ça le fait très moyen pour les investisseurs…


Le 22/04/2013 à 15h 51







floop a écrit :



c’est quoi l’interet de l’echange de clé par oral ?

c’est pas asymetrique ?





Symétrique pour mon cas, pas de gestion des pki car usage marginal.


Le 22/04/2013 à 14h 37

Certaines Ecoles/Université gèrent directement leurs mails et document depuis Google d’autres avec Office 365. D’autres offrent des espaces de stockage tellement ridicule, que Gmail devient obligatoire (pour la mobilité par exemple).



C’est pour cela qu’au final, tous ce qui est sensible (surtout pour la recherche) est crypté (Via TrueCrypt), et l’échange de clé se fait oralement.

Le 22/04/2013 à 14h 42







Kikilancelot a écrit :



Il n’y a pas déjà une loi qui oblige les revendeur à fourger les pièces ?



Sinon, y’a plus simple pour les consommateurs, interdire purement et simplement l’obsolescence programmée, avec amende record en cas de fraude.

Bon les prix vont grimpé du coup, les chinois ne pourront plus fournir de la merde, mais ça serait un bon moyen de réouvrir des usines en France faisant de la qualité à prix identique aux chinois…







Je trouve quand même un brin difficile de définir ce que c’est l’obsolescence programmée. On peut rendre un produit obsolète à postériori (pour pousser au changement, par économie ou par envie), mais le prouver que cela est pensé dès le départ n’est pas évident dans une bonne partie des cas.


Le 22/04/2013 à 12h 35







PPN a écrit :



L’OS le plus secure c’est celui que personne n’utilise :)





Ce n’est pas incompatible avec WP… pour le moment <img data-src=" />


Le 22/04/2013 à 09h 31







cyrano2 a écrit :



Les conseils du forum sont un peu tordu. Au lieu de se faire chi… avec un mot de passe incompréhensible, vous pouvez avoir le même genre de sécurité en collant 4 mots non basiques du dictionnaires. Il “suffit” que le site web autorise les mots de passe avec 20 caractères ou plus.



https://sslimgs.xkcd.com/comics/password_strength.png



https://xkcd.com/936/





Ce n’est vrai qu’en brute force bête et méchant. Cette technique revient à écrire le moyen mnémotechnique à la place du mot de passe, et n’est “plus sécurisé” que par ce qu’elle est moins employée (donc moins souvent incluse dans les algos de prédiction de mot de passe).


Le 19/04/2013 à 14h 53







TiTan91 a écrit :



oui le cross media peut etre attractif, c etait pas con de lancer serie et mmo en meme temps, les deux sont des medias addictifs, et ca permet de faire une campagne de pub commune

mais bon d apres ce que j en ai vu le jeu est bien foireux

pour la serie, le pilote m a laissé un peu sur ma faim… mais bon j avais le même ressenti au début de farscape (surtout sur la réalisation), ça m’a pas empêché de devenir fan par la suite ^^





Moi ça m’a aussi fait penser à Battlestar Galactica, des personnages amenés beaucoup trop vite, mais au final ça devient super prenant.

Pour le jeu, le côté TPS m’a donné envie aussi, et c’est plutôt bien fait (sauf le PvP que je trouve un peu bordélique…)


Le 19/04/2013 à 14h 25







Oulanos a écrit :



Tout à fait d’accord avec l’article.

(…)

Alors qu’aujourd’hui apparemment “Défiance” fait parler de lui même si apparemment il n’est pas fini et exempt de bugs.

(…)





Effectivement, loin d’être exempt de bugs, je pense que c’était inévitable; il fallait lancer le jeu 2 semaines avant de voir la série (les évents sont par cycle de 2 semaines), ça du précipité un peu les choses. Pour le coup, ils ont été très correct, et ont offert pas mal de bonus à ceux qui avait pâti des bugs (boost d’xp, de loot etc. pour une durée assez longue (7 jours)).



Le concept en lui même est assez innovant, et c’est la raison qui m’a poussé à l’acheter. Pour l’instant j’appréhende un peu la série après le pilote dont la réalisation m’a laissé… perplexe. Le jeu en lui même est pas mal du tout, bien que certains éléments sont encore largement perfectibles.


Le 19/04/2013 à 14h 51







Nyco87 a écrit :



Mouais, quid de la chaleur (remarque les possesseurs du téléphone avec Intel inside pourrons nous le dire) et surtout de l’autonomie.





Je confirme les dire de Labdam. x86 n’est pas égal à chaleur et mauvaise autonomie. Il y a pléthore de tests dans ce cens sur le NET <img data-src=" />


Le 19/04/2013 à 13h 12







ockiller a écrit :



Pour moi les résultats de la division Windows est aussi très surprenante. Je ne connaissais pas les chiffres des ventes sur tablettes, mais après avoir longtemps entendu que Windows 8 faisait un bide sur PC…





Tout simplement parce que ça ne fait pas un bide (ce n’est pas non plus extraordinaire), contrairement à ce que souhaiterait une partie de la presse spécialisée et des geeks. (d’où la différence entre l’impression que ça fait un bide, et les bons résultats).


Le 19/04/2013 à 09h 00







tass_ a écrit :



On va en mettre une dans ta chambre à coucher, t’en fais pas ce sera un fonctionnaire accrédité qui te verra te palucher devant Dora :p



Non mais sérieux les gens, comment vous pouvez vouloir perdre votre liberté à ce point ? Trop de TF1 du coup vous voyez des sauvageons prêts à vous agresser à tous les coins de rue ?





Pourquoi perdre une liberté? Liberté de quoi? Liberté de ne pas respecter la loi? <img data-src=" />



C’est un peu paradoxal, la loi sert justement à préserver nos libertés, et d’un autre côté dès qu’on présente un outil permettant de mieux la faire respecter, un troupeau s’énerve et crie au scandale.



Dans ce cas, je pense que c’est plutôt la loi qui vous pose problème, et que c’est à elle de changer et pas l’inverse.



Par exemple pour uriner sur la voie publique: moi je suis pour qu’on puisse le faire entre 2am et 6am lorsqu’il pleut et hors des portes.


Le 18/04/2013 à 16h 17







gargoysbc a écrit :



Ils n’ont plus cas inventer une nouvelle marque “aikon” pour vendre de l’android.





Vu les résultats de HTC, Sony Mobile, LG et consor. ça donne pas spécialement plus envie <img data-src=" />


Le 18/04/2013 à 11h 59







hicario a écrit :



Bon, comme PhotoBucket a tout redimensionné <img data-src=" />…voilà les images d’exemple sur ImageShack (si PC INpact en référent est toujours bloqué, il faudra copier le lien et l’ouvrir dans un nouvel onglet)

100%

125%

150%

200%





Bon résumé en tout cas <img data-src=" />


Le 18/04/2013 à 09h 37







lossendae a écrit :



Oui enfin, c’est pas glorieux comme implémentation, c’est même hyper moche comme rendu.

On est loin du HiDPI de qualité comme sur OSX ou ChromeBook.



D’ailleurs MS en avait parlé lors de la génèse de Widnows 8.



Edit: Windows fait du scaling up pourri, pas du vrai HiDPI. Lien





Sous ModernUI, c’est du vrai HiDPI. Sous le bureau, ce n’est pas du scaling up pourri. ça utilise des icônes d’une résolution plus grande. Le truc c’est que tout prend plus de place, au lieu de ne sélectionner que certains éléments à agrandir (du coup ça peut être chiant pour la taille des volets ou des bandeaux par exemple).


Le 18/04/2013 à 08h 15







lossendae a écrit :



Interessant! La même chose chez Lenovo et je suis preneur.



Enfin, preneur le jour ou le bureau de Windows 8 supportera vraiment le HiDPI…





C’est déjà le cas. Sur W7 t’as le choix entre 3 échelles, sur W8 y’en a une de plus prévue pour le 11,6” en 2560*1440 (+/- 2”). Sur le bureau ça se traduit par des icônes et des textes plus gros, idem pour les applications compatibles. Sur ModernUI, tout est mis à la bonne échelle.


Le 18/04/2013 à 11h 54







jb18v a écrit :



<img data-src=" /> ça marche



seul reproche sur iOS : aucun respect des guidelines d’interface, ça fait très bizarre.. mais bon ça marche donc ça me va <img data-src=" />







débit réduit mais pas de hors forfait <img data-src=" />

Après ça dépend du forfait justement, mais de tête Sosh/Orange ne fait pas de data bloquée ?





Si mais dans ce cas la conso data était disponible.







unCaillou a écrit :



Chez moi y une grosse différence entre la conso mesurée par mon téléphone (587Mo) et celle aux mêmes dates évidemment mesurée par Sosh (408Mo), soit 30% d’écart !



Heureusement c’est dans le bon sens mais quand même.





Cela illustre bien la difficulté pour faire un bon comptage de la data. La difficulté vient de plusieurs paramètres, notamment du fait que l’opérateur te vends de la data pour une connexion Internet et non pour une connexion à l’antenne. Il y a plusieurs opérateurs qui se sont cassés les dents avec ça, par exemple Verizon aux US, où la consommation data était un peu foireuse (mauvaise synchro entre ce qui était affiché, notifié et réel), et là bas le hors forfait c’est \(15 le Go dès le premier Ko de dépassement <img data-src="> (avec une option pour bloquer ton forfait à \)5/mois)


Le 18/04/2013 à 09h 27







Chloroplaste a écrit :



Non je parlais en fait de s’en servir de table. Même si 27 pouces est petit de ce point de vue là.





Autant pour moi, j’avais mal interprété le “de main en main” <img data-src=" />


Le 18/04/2013 à 08h 08







Chloroplaste a écrit :



Pour visionner des photos autour d’un apéro en les faisant glisser de mains en mains à l’instar de la table surface.





ça fait quand même pas mal 8,6Kg à passer de main en main. C’est presque un pack de 6 bouteilles d’eau <img data-src=" />


Le 18/04/2013 à 08h 05



Lors d’une requête, le moteur de recherche charge directement dans son code le début des pages disponibles via Quick view.



C’est le genre de chose qui va bien faire plaisir aux opérateurs mobiles <img data-src=" />

Le 17/04/2013 à 18h 00







Zorglob a écrit :



Tu ne crois pas si bien dire : malgré la distinction que tu t’imposes tout seul, le sujet est le même <img data-src=" /> dommage, il n’y a pas de version souriante de ce smiley) : la gratuité telle qu’utilisée de nos jours.

Le partage volontaire n’est qu’une progéniture du partage tracking, une version user-friendly qui officialise la contre-partie qui de toute façon était implicite avant.

La carte de fidélité, en outre, tu dois la demander ou l’accepter, si tu vois ce que je veux dire…

C’est parce que ta carte de fidélité n’est pas fidèle à la réalité dès le départ, c’est tout <img data-src=" />

Tu es dans le sujet sur la gamification, sur la carte tu délires un peu, c’est un produit qui demande une démarche personnelle <img data-src=" />

La carte de fidélité, c’est ton compte créé par toi-même sur youtube, gmail et consorts, c’est pas le rapatriement de ton historique de navigation et du fruit des scripts même quand tu ne crées aucun compte Google.





Outre le délire sur la grande distrib (<img data-src=" />) pour moi la différence est que ton partage “d’une” information a une valeur quasi contractuelle par rapport à au produit obtenu (ex: je partage l’information que je lis cet article, a la valeur de la lecture de l’article), alors qu’avant tu partageais des informations dont la valeur était mixée, et très indirecte (je fais des recherches sur Google à propos de mousse à raser, j’ai des pubs pour un rasoir Gilette à lame sur un site, je clic dessus, et finalement je trouve un article wikipédia sur les rasoirs éléctriques, je vais à Darty et je me fais convaincre par le gugus de prendre un couteau à lame fait sur-mesure par un artisan suisse –&gt; la recherche du début, ce partage d’information, n’a pas de valeur bien précise)



Le 17/04/2013 à 16h 00







Zorglob a écrit :



Yep, j’avais compris je te rassure, je m’en suis juste servi pour rebondir sur la notion de partage, qui depuis l’acceptation implicite du “modèle Google” par la planète Terre, ne demande plus les permissions d’usage pour prendre tes informations.



De ce fait, ce que l’on peut constater régulièrement, c’est que les idées et modèles comme la totalité de ceux décrits dans l’article ajoutés à 50% de plus que l’article occulte n’inventent rien mais tentent d’emberlificoter des choses existantes.



In fine, les plus grands fans du Google model pâtissent maintenant de ce modèle unique et atrophié qu’ils ont applaudi et qui n’a profité qu’à son instigateur, et cherchent à s’en sortir avec des options qui sont… des forks des “innovations” du modèle Google <img data-src=" /> Ils cherchent à se sortir du merdier dans lequel ils se sont fourrés avec des outils et principes de celui qui leur maintient la tête dedans <img data-src=" />



Mais bon, ça généère des trucs sympa aussi, par exemple David L. qui multiplie des news d’évangélisation et de moralisation de l’internaute afin de maintenir un principe qu’il aurait préféré voir continuer à marcher, c’est assez rigolo aussi <img data-src=" />







Je ne te suis pas trop du coup, car OK tu rebondis sur ce que je dis, mais je parlais du partage volontaire d’information, et non pas le partage tacite d’information du modèle Google qui est pour moi du même niveau que la carte de fidélité. Si je devais comparer avec un exemple de la grande distribution, cette gamification, c’est un peu lorsqu’on te distribue un produit gratuitement dans un supermarché, le but c’est que t’en parle et que tu commente le produit. J’ai du mal à voir le “Fork” par rapport à la carte de fidélité. <img data-src=" />


Le 17/04/2013 à 15h 36







Zorglob a écrit :



Cette “gamification” qu’évoque l’article - un brin décevant et en retard pour le coup - n’est qu’une partie infime de ce qui est déjà en vigueur naturellement.

En schématisé, “la publicité se mêle au contenu”, ça s’appelle du publi-reportage et est en vigueur depuis belle lurette (seule la transparence de la démarche est plus ou moins assumée ou camouflée suivant les éditeurs), tandis que “les marques deviennent éditeurs”, ça s’appelle le Brand Content, existe maintenant depuis un an au moins et sans cautionner ou critiquer, je pronostique un avenir assuré de la démarche.



Sinon, pour la partie en gras, je crois que même si tu le veux, tu ne peux pas réellement être intègre et/ou efficace à 100% quand tu écris ça : et pour cause, c’est le modèle Google qui te refile ses produits (disons plutôt ses “services”) “gratuits” et à qui je te défie de ne pas partager… Et pour cause aussi, puisque Google ne te demande pas si tu veux partager ou pas, ses scripts sont sur toutes les pages du monde et “prennent” avant que tu puisses décider de “passer ton chemin”.

Et ce principe global a tellement de fans (conscient ou pas) que ce n’est pas prêt de s’éteindre…





La notion de partage ici, c’était partage avec des amis/connaissance/réseau. Le partage avec des robots ça fait longtemps qu’on le pratique effectivement. Je n’aime pas non plus, mais faire son propre serveur web/mail à la maison n’est pas des plus aisé.

On n’est jamais 100% intègre, j’ai déjà participé à des trucs à la con sur Facebook types concours de like (ça ressemble déjà plus à la gamification), mais de mémoire, je n’ai encore jamais partagé quelque chose afin d’y avoir accès.


Le 17/04/2013 à 14h 31

EDIT: j’ai rien dis

Le 17/04/2013 à 14h 09

Je déteste cette “Gamification”. Dès que je suis obligé de partager pour avoir quelque chose de gratuit (qui n’est donc pas gratuit), je passe mon chemin. Mon partage a bien trop de valeur pour le donner à l’aveugle.

Le 17/04/2013 à 13h 07



L’éditeur ajoute que son application dispose d’un atout intéressant : la prise en charge du FLAC pour le streaming audio, un argument qui pourrait bien en intéresser certains qui cherchent à obtenir une bonne qualité d’écoute. De plus, elle est capable d’exploiter un DAC branché sur le port USB de la Surface de Microsoft par exemple.



Bon point pour le Flac en streaming <img data-src=" /> (suffisamment rare pour le préciser)

Pour le coup du DAC, c’est également le cas pour la Surface RT? Car pour la Surface tout court, ça semble très logique (finalement c’est un Windows 8, avec le support des DAC).

Le 17/04/2013 à 09h 35







kirire a écrit :



Ce que je trouve dommage avec leurs apps Modern UI c’est que ça utilise un écran entier souvent HD pour afficher pas grand chose ou voir rien… C’est vraiment pas ergonomique et non productif je trouve <img data-src=" />





Même impression, ModernUI c’est pour le loisir pour l’instant. Cependant ce n’est pas incompatible avec le côté productif. J’ai l’impression que sous Windows Server 2012 ils essayent de faire des trucs mi-Modern UI mi-Bureau, et c’est pas mal, ça change et ça devient plus performant que l’interface classique. Migration en douceur…


Le 17/04/2013 à 09h 32







Spidard a écrit :



Mh, question d’un gus qui n’ pas touché Win8 : sur 7, win gauche ou win droit déplace une fenêtre sur la moitié de l’écran voulu, ça fonctionnait sur 8 ?

Si non, belle régréssion <img data-src=" /> (et donc normale de reproposer ça dans ‘win 9’)





ça fonctionne sur le bureau <img data-src=" />

Tout ce qui est faisable sous Win7, est faisable sous Win8 en mode bureau.



Les améliorations présentées ici concernent l’environnement ModernUI, je trouve qu’il s’améliore de plus en plus, c’est une bonne chose.


Le 16/04/2013 à 12h 06







olivier4 a écrit :



ben le principe de l’overclocking déja c’est d efaire tourner a fond la carte pendant un minimum 24 heures. c’est le principe. un processeur bien overclocking est capable de rester a pleine puissance pendant une journée a un usage intensif ou alors ca sert pas a grand chose





Grosse différence entre être capable de faire tourner h24 une config overclockée (ce qui est le cas pour mon ordinateur portable), et le faire h24 tout un été. D’un côté tu valides la stabilité de ta machine (en prenant le % de marge que tu souhaite), de l’autre tu l’utilise plus que de raison pour faire des tâches qui ne demandent pas d’overclocking, c’est idiot, tout simplement.







olivier4 a écrit :



j’aime beaucoup ce type de raisonnement: une fois j’ai overclocké ma carte graphique de mon ordinateur portable alors ca prouve que dans un ordinateur portable j’ai une excellente ventilation et une tres bonne disspation énergétique.





Non, ce n’est pas ce que j’ai dis. Je te laisse relire.



entre nous c’est juste complètement stupide et irresponsable d’overclocker le processeur ou la carte graphique d’un ordinateur portable quand tu n’a pas les moyens de dissiper et evaculer de lenergie.



Bah, biensûr que si j’ai les moyens. Surtout à l’heure actuel avec les technologies de throttling en cas de overheat, tu ne risque pas grand chose. Tu pourrai me dire que l’alimentation n’est pas dimensionné, mais c’est faux puisque un format MXM peut accepter des cartes graphiques plus lourdes, de même pour ma carte mère qui peut accepter des i7 alors que j’ai un i5. Et l’alimentation externe est prévu pour une charge rapide, donc sur-dimensionnée par rapport à la charge de la config.



Et puis la plupart des cartes mere dans un portable ne sont pas prévus pour l’overclocking



Rien à voir avec la carte graphique



tout ce que tu as c’est juste de fusiller ta carte ett tu perds en fiabilité en stabilité



Comme tout overclocking.



et puis essaie aussi d’etre coherent et ne pas dire tout et son contraire dans un message.



J’avais compris que tu étais drôle, pas besoin d’enfoncer les portes.



enfin changer les pieces et les composants dans un portable c’est juste complètement absurde.puisque un ordinateur portable ce n’est pas prévu pour ca.



Bah si, c’est prévu pour, la preuve: je peux les changer, et je l’ai déjà fais.



:ps; bravo pour tes recherches google. j’ai acheté le 920 a sa sortie: si bien que si tu soustrais 2013 et 2008 ca fait 5 ans et je ne vais pas m’amuser a calculer le nombre de mois



Quand on te demande ton âge, tu fais parti de ceux qui se rajoute toujours un an, c’est ça?



a part ca l’ordinateur portable est plus cher a puissance moindre .



Ce que j’ai déjà dis.



<img data-src=" />


Le 16/04/2013 à 10h 01







raoudoudou a écrit :



N’esquive pas la question, ça donnerait quoi ton portable à fond H24 en été?



Moi, je peux en avoir besoin, si je fais du rendu, mais ce n’est qu’une utilisation parmi d’autre. Et preuve surtout que ce ne sont pas les mêmes usages ;)



Pour la petite histoire, je l’eu fait avec un portable puissant y a une petite dizaine d’année, l’alim est morte (pas de refroidissement actif sur ces alims), sous garantie, heureusement. Je suis revenu à une tour depuis <img data-src=" />





Moi j’utilise mon ordinateur portable pour les rendus (AE et Cinema 4D). C’est un portable prévu pour (Gamme Precision de Dell), donc heureusement qu’il tient la charge <img data-src=" />

Le GPU n’est pas si sollicité que cela en rendu. EDIT: beaucoup moins qu’un jeu en tout cas.