votre avatar

methos1435

est avec nous depuis le 6 février 2003 ❤️

4175 commentaires

Le 13/08/2013 à 10h 36







Maicka a écrit :



En effet,on approche de la 1.0 haha.









On approchera de la 1.0 quand on aura des maps suffisamment grandes pour gérer des villes et non des quartiers …


Le 12/08/2013 à 22h 17







Aloyse57 a écrit :



Et je n’ai que des Windows 8/Serveur 2012 chez moi, donc je sais de quoi il parle ; ça n’en reste pas moins que c’est bien complexe pour ceux qui veulent forcer la fermeture (même si c’est inutile)







Donc c’est ces personnes qui se compliquent la vie à faire quelque chose dont ils n’ont pas besoin <img data-src=" />


Le 07/08/2013 à 23h 39







psn00ps a écrit :



<img data-src=" />Tu as oublié les blue screen à répétition de Vista ou tu as eu de la chance.

Les fournisseurs de drivers ont eu leur part dans ce cafouillage, mais ils avaient pris de mauvaises habitudes sous XP ou ont fournis de mauvaises versions Vista (voire techniquement pas du tout)









Mauvais habitudes ou pas, ils ne se sont pas adapté pourtant ils avaient les outils pour. Microsoft n’est pas responsable de leur fainéantise.



Même l’UAC qui m’a plus qu’agacé sous VISTA (beaucoup moins sous 7) était nécessaire je pense. Microsoft l’avait bien expliqué. Tant que les dev ne feraient pas l’effort de nettoyer leur code (pour éviter entre autres des appels systèmes nécessitant des droits admin quand ce n’est pas nécessaire), l’UAC emmerderait l’utilisateur. L’UAC à été peu remanié sous 7. Mais les logiciels plus récents sont mieux écrits à ce niveau et déclenchent donc moins son affichage.





Pour les BSOD sous VISTA: non aucun. D’ailleurs il est marrant de voir autant de monde nous ressortir le coup du BSOD alors que par défaut VISTA est configuré pour redémarrer et non afficher l’écran bleu <img data-src=" /> Et je doute fortement que toutes les personnes ayant critiqué VISTA aient changé la config par défaut….


Le 07/08/2013 à 13h 36







Winderly a écrit :



Il y a aussi les professionnels qui ont pas pu migrer vers vista fautes de drivers pour leurs matériels.

Vista qui avait des performances extrêmement curieuses en fonction du matériel (genre il tourne plus vite sur du matériel moins puissant, allez comprendre).



Bref parfois tout allait très bien, mais malheureusement ça a pas été le cas pour tout le monde.



Alors qu’avec 7…



Pour les lenteurs de copie, le périphérique est bien branché sur un port USB 2 ? (je sais c’est con et pourtant le gag m’est arrivé, les ports en façade de la tour étaient pas en v2)







VISTA à apporté des changements majeurs dans la façon de concevoir les drivers. Et ces changements étaient nécessaires. C’est embêtant c’est sure mais est-ce vraiment la faute à Microsoft si les fabricants n’ont pas joué le jeu assez vite ? Les spécifications techniques, je suppose qu’ils les ont eu suffisamment tôt pour s’adapter … Alors quand je vois le coup de créative, qui s’est plaint de ne pas avoir été averti du changement dans la façon de gérer le son sous VISTA …



De plus, VISTA à été le premiers Windows “grand public” à apporter le 64 bits (Windows XP 64 bits ça existait mais c’était loin d’être répandu). Ca a apporté du travail supplémentaire pour les fabricants, charge de travail qu’ils n’ont, à mon avis, pas anticipé suffisamment…





Pour l’USB, oui c’est bien en USB2 (ou 3). Le problème est assez aléatoire. Des vois c’est rapide, des fois c’est d’une lenteur affligeante…. Pourtant les disques ont été vérifiés plusieurs fois: ils n’ont aucun soucis… Ce problème est apparu sur VISTA justement et Microsoft à dit avoir corrigé par la suite sans jamais s’attarder sur les causes. Pourtant, en ce qui me concerne c’est toujours présent sur Windows 7 (je manque de tests pour Windows 8).


Le 07/08/2013 à 13h 22







Winderly a écrit :



J’ai pas eu l’occasion de tester le SP1, il a peut être corrigé l’essentiel des problèmes que j’ai eus.

Windows 7 est très bien à mon avis, j’ai jamais eu avec 7 les problèmes que j’ai eus avec vista.

Alors sans doute les bases de vista sont pas pourries, mais l’expérience que j’en ai eu a bel et bien été pourrie.









Tu as donc testé et t’as basé ta critique dessus. Bien. Au moins tu as testé. Maintenant affirmer que VISTA est une merde parce que TU as eu des soucis…



D’ailleurs ça ne change rien au problème. Quand je lisais certains articles de presse sur VISTA. On aurait presque pu faire du copier coller avec des commentaires digne de linuxfr quand on aborde le sujet Microsoft…



Mon renouvellement de machine s’est fait à peu près au moment de la sortie de VISTA. J’ai eu VISTA et je n’ai jamais eu les problèmes que tu cites. Comme quoi…. On aime ou on aime pas, mais je ne pense pas qu’on soit à même, sur la base de problèmes personnels, de poser une critique comme vérité générale.

Le seul soucis récurrent que j’ai eu et qui, d’ailleurs, persiste chez moi avec Windows 7, c’est une lenteur sur la copie de fichiers vers des périphériques USB2.


Le 07/08/2013 à 13h 15







Winderly a écrit :



Perso, ayant utilisé moi même vista pendant 6 mois j’ai été déçu.

Qui a entendu parler d’un OS qui met 10 minutes (j’exagère même pas, c’est la pure vérité) à mettre à la corbeille un pauvre config.cfg de counter-strike à la corbeille ?

Alors ok, Vista multiplie pas les blue screen of death comme un millenium mais ça reste une belle merde.



(et je parle pas de mes tentatives de mise en réseau LAN, il y aurait de quoi écrire des pavés)









La base de Windows 7 est pourtant celle de VISTA… Et on connait tous le succès de Windows 7.



VISTA avait ses défauts. Une certaine lourdeur dans les premières tournées (le SP1 à corrigé tout ça en très grande partie) et un UAC très contraignant et pas spécialement bien étudié pour un usage confortable.



A part ça, je maintiens que VISTA était loin d’avoir des bases pourries. Windows Me: çà c’était une merde sans nom. Mais VISTA c’est avant tout un échec commercial, pas “technique” (du moins quand tu acceptes le fait que tu peux pas faire tourner VISTA correctement sur un vieux PC de 7 ou 8 ans, chose que beaucoup n’ont pas pris en compte…)



Après, chacun son point de vue. Mais j’avoue avoir été “effrayé” par la déferlante de commentaires sur VISTA basés sur du vent; des personnes qui n”ont jamais pris la peine de tester et qui crachaient sur le simple fait que c’était Windows.


Le 07/08/2013 à 12h 39







jmanici a écrit :



[quote]



sauf que ces rumeurs ont commencé à se repandre massivenent alors que windows vista etait deja passé en RTM. N’importe qui avait la possibilité de verifier que c’etait faux, qu’on pouvait toujours lire du contenu non DRMisé sur vista. Mais les gens preferent crier au scandale sans verifier…









On vit à une époque ou la critique sans fondement atteint un tel niveau sur internet ….



Vista à eu ses défauts. Mais de là à dire qu’il a été le pire Windows de Microsoft… Je reste persuadé (et c’est là MON opinion) que “l’échec” de Vista est en partie du à une prise en compte trop importante de ces commentaires foireux sur le net. La machine s’est emballée avec des journalistes qui ont préféré résumer sur ces commentaires, au lieu de tester en profondeur et se faire une opinion propre.



D’ailleurs Microsoft avait fait un test à l’époque. Ils avaient fait tester le successeur de VISTA à un panel d’utilisateurs déçus par ce dernier. Le nouvel OS avait été très bien accueilli. Seul problème: ce n’était pas un nouveau Windows mais un VISTA maquillé…


Le 07/08/2013 à 00h 47







Para-doxe a écrit :



Oui, c’est la faute du kernel si les constructeurs pré-installent des logiciels propriétaire d’espionnage. <img data-src=" />



C’est génial PCI, on peut lire des truques irrationnels à souhait dans les commentaires.









Un bootkit ou rootkit est aussi un logiciel installé, qui n’a rien de directement dépendant avec la sécurité du kernel. Le Secure Boot sert bien pour contrer ces logiciels au démarrage et participe ainsi à une meilleure sécurité de l’ensemble.



Donc ton commentaire agressif n’apporte rien de plus au débat. Pour moi le commentaire débile c’est celui où tu lis que ton super OS libre de la mort qui tue te protégeras là dessus, là ou le méchant Windows tueurs de bébés chat se plantera. Un logiciel conçu pour de mauvaises intentions le restera, OS libre ou pas.


Le 06/08/2013 à 18h 27







arno53 a écrit :



Quand je vois ce genre de post sur PCI, je me dis qu’Edward Snowden aurait du fermer sa gueule … J’ai jamais vu autant de libriste sectaire s’exciter sur les news MS depuis ses “révélations”… Les OS GNU/Linux sont bon mais … le discours type témoins de Jéhovah c’est un poil too-much <img data-src=" />









Surtout que les dernières révélations portent sur l’écoute des smartphones android, donc sur base linux <img data-src=" /><img data-src=" />


Le 06/08/2013 à 18h 00







GruntZ a écrit :



Tant que je ne pourrais pas changer moi même les clés publiques de l’UEFI, je considère que le SecureBoot est “defective by design”

<img data-src=" />







Sauf que “by design” il est prévu dans la fonctionnalité Secure Boot que l’utilisateur puisse ajouter des clés. Là encore si c’est pas proposé: demander pourquoi au fabriquant, pas à une société qui ne fait qu’utiliser la fonctionnalité (et qui, de part ces pdm dans les systèmes d’exploitation, à pu obtenir que sa clé soit présente sur des machines certifiées, ce qui me parait plus que normal).


Le 06/08/2013 à 17h 45







GruntZ a écrit :



Sur une échelle de 1 à 10, à combien évalues-tu l’indépendance d’un fabricant de PC vis à vis de Microsoft ?

<img data-src=" />









D’un point de vue volonté (donc si un fabricant veut faire ce qu’il veut comme ça lui chante) ? 10 <img data-src=" />



Ce que je constate surtout c’est que ça arrange beaucoup de monde d’acheter de la merde pas chers, justement parce que c’est pas chers. Et c’est ces mêmes personnes qui viennent gueuler contre une boite parce qu’ils arrivent pas à faire ce qu’ils veulent avec de la merde.



Après il est bien évident que Microsoft restera un partenaire privilégié ne serait ce que par les PDM de Windows.



Faut arrêter de fantasmer sur cette légende urbaine comme quoi Microsoft pète un revolver sur la tempe des fabricants. Se sont les fabricants qui vont se prostituer auprès de Crosoft pour obtenir des prix, pas l’inverse. Rien n’empèche ces fabriquant de proposer un PC librement et facilement utilisable avec autre chose que Windows (problème qui d’ailleurs, je le répète n’existe que pour de la merde, quand tu prends le temps de choisir du bon matos t’es pas emmerdé).


Le 06/08/2013 à 15h 32







hansi a écrit :



Le secure boot sert d’abord et avant tout à tuer le concept même du PC, qui est de pouvoir installer un os tiers sans s’emmerder !









Ca c’est ta vision du PC, rien d’autre. Moi j’attend de mon OS qu’il soit sécurisé au maximum. Le SecureBoot est un outil de sécurisation comme un autre. D’ailleurs les personnes ayant trouvés ces failles ne remettent pas en cause le principe de sécurisation du SecureBoot.







hansi a écrit :



ms se rend indispensable de fait, puisqu’il est LE distributeur des clés chez les fabricants, et qu’il est donc juge et partie de cette technologie. Encore un monopole supplémentaire créé avec le silence assourdissant des gendarmes de la concurrence.









Microsoft est LE distributeur de clefs parce que personne n’a voulu le faire, ni utiliser le SecureBoot à part eux. Tout simplement. Il n’ya aucune restriction pour ceux qui voudraient se mettre à signer. D’ailleurs Canonical signe également.



Pour ce qui est de l’intégration ou non des clefs dans l’UEFI: voir les fabriquant, pas Microsoft c’est pas leur problème.


Le 06/08/2013 à 15h 23







Para-doxe a écrit :



. Et même si aujourd’hui c’est désactivable sur un bon nombre de machines, nous n’avons strictement aucune garantie que cela continue.







Tu l’as sur toutes les machines certifiées Windows 8 puisque la désactivation possible du SecureBoot fait partie des obligations de la certification.



Et puis j’ai envie de dire que pour les 0.000001% de PC où c’est pas possible, le client n’a qu’à pas acheter de la merde…


Le 06/08/2013 à 15h 19







Khalev a écrit :



C’est juste qu’au début tu annonces le truc comme une vérité générale, et à la fin tu mets à l’écart les exceptions. C’est plus logique de commencer dès le début par exclure les exceptions et ensuite développer son idée.



On imagine mal un mathématicien faire sa démo puis préciser à la fin dans quel espace il se place…



C’était juste une remarque (pour rire) sur la façon de faire.



Et mon OS fait plus qu’afficher un Hello World maintenant <img data-src=" />.









Excuses moi j’ai effectivement fait une impasse sur une proportion quasi inexistante de la population (<img data-src=" />)


Le 06/08/2013 à 15h 01







Khalev a écrit :



Il y a contradiction entre ta première et ta dernière phrase. C’est dommage tu aurais mis la dernière phrase en premier c’était bon.









Pourquoi ? C’est une vérité. A rien d’engagé dans mon commentaire.

Mis à part les 0,0000000001% de personnes qui vont créer un pseudo OS qui est capable de t’afficher un Hello World, on parle bien d’OS existant style Windows, OS X, les systèmes types BSD ou Linux. C’est bien pour ceux là que je dis ça.


Le 06/08/2013 à 13h 52







127.0.0.1 a écrit :



BASIC



10 spécifier un DRM pour windows

20 convaincre les utilisateurs que le DRM est du Trusted Computing.

30 convaincre les constructeurs d’implémenter le DRM

40 se rendre compte que les constructeurs ont mal implémenté le DRM

50 se rendre compte que les utilisateurs ont contourné le DRM

60 décider qu’il faut un nouveau DRM pour windows

70 GOTO 10









Sauf que le SecureBoot est une fonction standard de l’UEFI. C’est pas du made in Microsoft <img data-src=" />



Ils ne font que l’utiliser (et proposent de signer le code puisque qu’à par eux, et Canonical il me semble, personne ne veut le faire).


Le 06/08/2013 à 13h 47







Bejarid a écrit :



Je suis sur que si t’appelle MS et que tu leur propose quelques millions ils seront prêt à bosser sur les contributions Linux nécessaires.



Bon après faudrait aussi rajouter quelques millios







C’est déja le cas. Microsot à travaillé sur un bootloader capable de démarrer un noyau non signé avec le SecureBoot actif il me semble.


Le 06/08/2013 à 11h 51







tazvld a écrit :



Et pourtant, il n’y a pas que linux comme OS alternatif (par exemple SystemV sans compter ce qu’est devenu MacOS)… donc ta remarque pseudo libriste n’est pas très pertinente.









Quel que soit l’OS: le code ne t’appartient pas. Libre ou pas libre, tu n’as qu’un droit d’utilisation à la base (plus d’autres libertés si code libre).



Il n’y a aucune remarque libriste là dedans. Je rectifiais juste son commentaire. A moins de l’avoir développé lui même, il ne peut pas dire “MON OS” …


Le 06/08/2013 à 11h 18







GruntZ a écrit :



A quand un UEFI/SecureBoot alternatif “cracké” qui permette de signer SOI-MÊME SON installation toute fraiche de SON OS d’un OS dont on accorde un droit d’utilisation au client, sur SA machine.



Avoir un dispositif qui vérifie l’intégrité de la chaine de boot, pourquoi pas, mais en laisser les clés à d’autres, non merci !







<img data-src=" />


Le 07/08/2013 à 14h 07







spidy a écrit :



bah t’as dû faire les quêtes comme les dev avaient prévu <img data-src=" />









Cela dit, une fois le jeu terminé une première fois, j’ai redémarré une partie ou j’ai utilisé certains glitchs, pour tester.

Comme l’apprentissage rapide des compétences en utilisant un bug sur un livre reçu en récompense de quête (me rapelle plus du nom, j’ai lâché depuis un temps maintenant), ou l’accès aux coffres des vendeurs sans passer par eux (passer sous les villes, le délire <img data-src=" />)


Le 07/08/2013 à 13h 39







spidy a écrit :



t’as pas dû faire beaucoup de quêtes annexes <img data-src=" />







Si si <img data-src=" /> Je l’ai exploré de long en large ce jeu mais jamais rien de bloquant. Après peut être quelques glitchs, m’en rappelle plus trop mais rien de bien méchant.


Le 07/08/2013 à 13h 11

Jamais eu un seul problème avec Skyrim sur XBox 360. Doit être chanceux <img data-src=" />



Pour la raison donnée ça ne m’étonne pas plus que ça. Nintendo peut pas vraiment se permettre de tenter autre chose dans son coin avec du matériel plus restreint et espérer en même temps que tous les gros éditeurs suivront…

Le 07/08/2013 à 00h 37







darkandy a écrit :



Bah dans ton cas de figure, même un i5 peut être refroidit passivement si ont a plus de place qu’un barebone <img data-src=" />









Je dis pas le contraire. Je répondais juste à un commentaire qui laissait penser qu’un refroidissement passif était impossible sur un i3 EN GENERAL.





D’ailleurs si le boitier est bien foutu, ya pas besoin de taper très grand pour du refroidissement passif. J’en ai vu un sur materiel.net qui est encore plus petit que celui testé ici <img data-src=" />

Sa conception fait que le boitier lui même sert pour la dissipation et il supporte un CPU avec TDP de 35W.


Le 06/08/2013 à 19h 50







David_L a écrit :



Oui, avec un rad genre tour <img data-src=" /> Pas avec une plaque plate <img data-src=" />









Oui sans doute, mais je répondais juste sur le refroidissement passif pour un core i3, sans m’arrêter au cas d’un barebone où la place est limitée <img data-src=" />



Le 06/08/2013 à 19h 35







rc_outside a écrit :



Un i3 en refroidissement totalement passif ? je sais pas pourquoi je le sens pas<img data-src=" />









Mon HTPC est basé sur un core i3 avec TDP de 35W seulement. Bon, j’ai gardé le ventirad de base (que j’entend quasiment pas vu qu’il tourne au minimum) mais j’imagine qu’avec ce TDP le refroidissement passif est possible.


Le 06/08/2013 à 18h 41







Reznor26 a écrit :



À ton avis, pourquoi y a-t-il autant de swordage avant toi ? <img data-src=" />



Adieu ? <img data-src=" />









Ils peuvent sworder si ils veulent, ça me gènera pas plus que ça car perso je sais très bien que j’ai posté ça par humour (merdique <img data-src=" />) et pas pour troller.


Le 06/08/2013 à 18h 40







Linksys WAG54G a écrit :



Ca me rappelle ce film. xD



youtube.com YouTubeSinon, c’est vrai que l’on se demande où cela va s’arrêter tout ces trucs en ligne. J’ai du mal en plus à imaginer l’utilité de l’appli, des boutons étant suffisants.









Attends: c’est super les toilettes connectées !! Ça tweete automatiquement quand tu t’assois pour dire que t’es pas disponible et en prenant la version premium ça indique même le poids de ta m……. <img data-src=" />



Moi je dit vive les chiottes 2.0 <img data-src=" />


Le 06/08/2013 à 17h 52

Ca confirme bien qu’android c’est conçu pour du matériel merdique … <img data-src=" />

























(<img data-src=" />)

Le 06/08/2013 à 15h 04







ff9098 a écrit :



Même notre cul ne sera plus a l’abris de la NSA









Parce que tu pensais que c’était le cas jusqu’à présent ? <img data-src=" />


Le 06/08/2013 à 15h 07







fken a écrit :



Pour les USA il parait donc normal de protéger des concept de design plus ou moins inutile comme des téléphone carré à bords arrondis mais pas de protéger une recherche qui a permis de faire un grand pas en avant. des sociétés américaines contre tout étranger qui viendrait concurrencer leur business.







<img data-src=" />



Faut pas chercher plus loin.


Le 05/08/2013 à 18h 19







canti a écrit :



en même temps, il a mis un véto a l’exécution de la peine, ca ne change pas que apple a “perdu”







Perdre ne veut rien dire si la sanction est annulée…


Le 05/08/2013 à 17h 50

En tout cas, Samsung à fait appel pour que l’ITC réitère son interdiction en se basant sur les 3 brevets qui avaient été écartés (et qui ne sont pas FRAND il me semble).



Ca serait comique de voir une nouvelle interdiction sur la base de ces brevets. Obama serait obligé d’admettre qu’il protège une entreprise américaine.

Le 05/08/2013 à 17h 33

Obama n’aurai pas opposé son veto si la situation avait été inversée (interdiction pour Samsung) <img data-src=" />



Il est clair, qu’en période de crise, il à favorisé une entreprise purement américaine. La défense sur les brevets FRAND c’est du pipeau. Heureusement pour lui qu’ils sont là parce qu’il aurait du mal à s’expliquer sans ça…

Le 30/07/2013 à 16h 49







Alucard63 a écrit :



Hum pour moi Nexus 4 &lt; IPhone 5 &lt; SGS 4



Je ne vois pas ce que l’iphone 5 a d’aussi bien qu’un SGS 4: Hardware moins puissant, APN inférieur…<img data-src=" />









Le galaxy S4 est plus récent que l’iphone 5…

De plus si ya bien un truc qu’Apple à compris (on aime ou on aime pas là n’est pas la question) c’est que la puissance ne fait pas tout. L’ergonomie générale et la présentation est tout aussi, voir, plus importante que la puissance.


Le 30/07/2013 à 16h 29







atomusk a écrit :



Le souci c’est qu’en tant que développeur je me fiche un peu du fait que Apple gagne plus d’argent <img data-src=" />



Etudier les sommes en valeur pour attribuer les achievements “Gagne le plus sur le trimestre” c’est marrant, mais ça ne fait pas mieux vendre mes apps <img data-src=" />









De façon directe, le développeur se fout de ça effectivement. Mais de façon indirecte un éditeur qui veut vendre sera interessé de voir que la clientèle Apple, de par les prix pratiqués et cette image “”“haut de gamme”“” (je parle bien d’image) est plus enclin à dépenser de l’argent dans l’appstore que la clientèle android.



Plus de monde à utiliser android certes, mais c’est pas vraiment le possesseur d’un smartphone android ultra bas de gamme offert dans son paquets de papier toilette qui ira acheter régulièrement sur le play store.



Il me semble d’ailleurs (lien à retrouver) que l’éditeur d’evernote à affirmé que pour lui Windows phone était plus rentable qu’android. Pourtant si on compare les pdm de WP par rapport à celles d’android… Ca montre bien que ce n’est pas parce qu’on domine au niveau des ventes qu’on arrivera à faire vendre plus d’applis.



Ya comme une certaine “philosophie d’usage” derrière chaque OS et forcé de constater que la clientèle Apple est plus intéressante, même si les appareils sont plus chers, car c’est une clientèle qui n’hésite pas à dépenser (ou moins que chez les autres).


Le 30/07/2013 à 16h 23







ethanfel a écrit :



Linux etant le kernel. Android utilisant Linux. CQFD.



Faut juste pas confondre GNU/Linux et Linux. Linux (le kernel) n’a jamais été autant présent chez tout le monde grace a Android. Le succès grandissant des Chromebook (utilisant Linux) est aussi un facteur.









Je la connais la différence <img data-src=" />



Je dit juste que Mme Michu n’achète pas du Linux. Elle se tape royalement du système en place.


Le 30/07/2013 à 15h 06







freechelmi a écrit :



On vous avait dit que 2013 était l’année de Linux d’androïd chez Madame Michu <img data-src=" />







<img data-src=" />





La base est peut être la même, mais mis à part ça les deux sont bien différents dans leur utilisation et façon de voir les choses.



D’ailleur Madame Michu n’achète pas du Linux mais un portable pas trop chers qui lui permet de téléphoner et éventuellement de raconter des conneries sur Face de bouc.


Le 30/07/2013 à 15h 05







misterB a écrit :



C’est le mot Google et les dépenses marketing pharaoniques de Samsung qui font la force d’Andro, le fait que ce soit un tant soit peu libre 90% des acheteurs s’en cognent comme du bilan carbonne de leur bouffe <img data-src=" />









Surtout que sur android, ya vraiment que la base de chez base de libre. Tout le fonctionnement au dessus est loin de se rapprocher de la philosophie du libre….



Les grosses boites se foutent royalement de savoir si la base est libre. Ce qu’elles veulent c’est un écosystème leur permettant de vendre leurs produits et de se faire du fric (ce qui est normal pour toute entreprise normalement constituée). Et d’ailleurs là dessus Android est loin d’être au dessus d’iOS.



Le côté “fermé” d’iOS rassure ceux qui veulent vendre. La façon de voir les choses d’un client Apple n’est pas le même non plus que celle d’un client utilisant androïd. MYa qu’a voir l’étude récente sur les acheteurs de la console OUYA, qui sont loins d’être de bons payeurs de contenu (et la réponse des créateurs de la OUYA du style: “non en fait c’est mieux que ce qu’on avait prévu tout est normal” c’est du pipeau pour éviter d’avoir à avouer leur échec).



Si on rajoute à ça la plus grande facilité de pirater des applications et jeux sur Androïd par rapport à iOS: ca donne clairement un avantage à la plateforme fermée d’Apple.



Je suis loin d’être un fanboy Apple mais forcé de constater qu’android domine uniquement à cause du fait qu’il ya une plus grande diversité de matériel à tous les prix. Côté qualité Apple à encore largement l’avantage.


Le 30/07/2013 à 14h 49







Alucard63 a écrit :



Non.



Apple n’est juste pas un concurrent de Google, point barre.<img data-src=" />









Non, c’est vrai: iOS n’est pas en concurrence avec Android <img data-src=" />


Le 30/07/2013 à 14h 37

C’était prévisible…




Le 30/07/2013 à 16h 44







Chrisrc01 a écrit :



Pour le reste OVH peut demander à être indemnisé pour les frais engendrés par les demandes des autorités









Les FAI attendent toujours d’être payés pour les identifications liées à HADOPI … <img data-src=" />


Le 30/07/2013 à 16h 42

C’est marrant, je parlait justement de cette possible future interdiction de tels services sur les dédiés OVH il n’ya pas si longtemps que ça dans des commentaires.



Marrant de voir comment ça évolue… Deuxième fois que je dis ça sur deux news différentes aujourd’hui mais: c’était prévisible…

Le 30/07/2013 à 14h 33







yl a écrit :



Sauf qu’on est dans le cadre d’une révolution technologique, au même titre que l’imprimerie avait réduit presque à néant le job des moines copistes.









Le numérique est peut être (certainement même) une révolution technologique mais elle n’a pas à intervenir ici.



Le fait de passer au numérique et à la distribution en ligne n’empêche en rien la vente classique. Seul le canal de distribution à évolué.





Tout le reste n’est que mauvaise foi de beaucoup trop de personnes qui ne veulent plus payer leurs biens culturels. Certes, les ayant droits abusent, mais ça ne doit pas pour autant autoriser tout et n’importe quoi.



On se trompe de combat tout simplement. On à tellement pris l’habitude de vouloir avoir de l’illimité et du peu chers qu’on ne se rend même plus compte que ça cause des dégats immenses. TOUT à un prix. Dès lors qu’on raque les fonds de tiroir en tirant sur les prix on s’expose d’avantage à une hausse du chômage, une dégradation des conditions de travail et à des salaires de misère.



Alors évolution: peut être, mais en tirant le tout vers le bas: certainement pas…


Le 30/07/2013 à 13h 35







Yutani a écrit :



une idée dangereuse pour son compte en banque ? <img data-src=" />







Il défend son emploi. Il à raison…



Je ne sais pas dans quel secteur tu travailles mais tu n’auras plus forcément le même point de vue le jour où un système rendra ton travail inutile.


Le 24/07/2013 à 08h 49

Si les faits sont avérés les sanctions devront tomber: c’est tout à fait normal. On ne peut se permettre de tels propos quelle que soit sa profession.



cela dit je me garderai bien pour l’instant d’émettre le moindre jugement car il peut également s’agir de ““faux profils”” pour tenter d’attiser la haine envers la police…

Le 18/07/2013 à 21h 36







Bylon a écrit :



Heureusement ce n’est pas la cible pour ce genre de processeur, mais même dans un PC ça fait mal.







Le jour où un proc ARM me donnera la puissance d’un CPU Intel dans mon PC, je commencerai peut être à discuter des prix. Mais ce jour n’est pas arrivé et n’est, AMHA, pas prêt d’arriver…


Le 18/07/2013 à 20h 22







Alkore a écrit :



C’est surtout lque ds le secteur mobile@ARM, il y a du lourd: Apple, Samsung, Qualcomm. Rien à voir avec le frêle AMD@ x86<img data-src=" />







Question performances Intel n’a pas à s’inquiéter pour l’instant… <img data-src=" />





Et ils rattrapent leur retard niveau gestion énergie.



Maintenant tant que certains (beaucoup) continueront d’associer systématiquement ARM au secteur de l’ultra mobilité, intel aura plus de mal à percer.



Le 18/07/2013 à 08h 55







plumachau a écrit :



Intel a raté le “bingo” des processeurs mobiles (téléphone, tablette, etc …).









Oui et non.



Intel a fait d’énormes progrès mais le mal est fait. Les clients qui s’intéressent au matos qu’ils achètent ont déjà associé ultra mobilité et ARM.


Le 15/07/2013 à 14h 51







nucl3arsnake a écrit :



Je le met car c’était proposé dans les commentaires avant ;)









Attention, si tu parles de mes commentaire. Mis à part un abus de langage dans les tous premiers, je ne parlais plus d’émulation pour cette génération, uniquement pour les anciennes qui possédaient des architectures matérielles différentes <img data-src=" />



Wine est un type de solution parmis d’autre. Perso j’y crois pas. Je pense qu’on est assez proche d’OS existants pour tenter mieux <img data-src=" />


Le 15/07/2013 à 14h 44







nucl3arsnake a écrit :



Donc au final on reste avec un OS différent (du moins pour la PS4), qui doit faire tourné que du jeu et est optimisé pour.

Du matériel qui s’approche du PC mais qui reste différents (nombre de coeurs, mémoire unifié etc…)

Au final ça confirme ce que je pense, créer un émulateur pour ces consoles restera aussi dur que créer un “wine” car faut trouvé quelle instruction va ou, émuler la mémoire etc …





probable, quoi que … avec Kinect et la caméra Sony, ça peux rajouter de la difficulté ^^







Pas sure que tu comprennes réellement comment ça marche. Déja mettre émulateur et Wine dans la même phrase <img data-src=" />





De plus, j’ai lu ya pas longtemps qu’on considère que l’hexacore utilisé dans ces consoles next gen ne représente pas plus de 25% de la puissance d’un core I5 avant dernière génération… Ca laisse un peu de marge…



De toute façon, nous verrons bien hein :) Perso j’aurai pas besoin de tout ça: je vais m’acheter la PS4.