votre avatar Abonné

patos

est avec nous depuis le 7 novembre 2007 ❤️

2729 commentaires

Le 24/04/2013 à 10h 41

Toea, c’est une pression longue qui fait le clic droit.

Js2082, 900€ un core i5 en tablette, désolé mais c’est pas déconnant vis à vis de la réalité du monde du pc.

Le 23/04/2013 à 21h 10

Comme tu l’as dit, c’est du P2P donc c’est logique ;)

Le 21/04/2013 à 06h 53







Mudman a écrit :



Ça veut dire quoi ça ?



L’intérêt du 64 bit c’est d’adresser davatange de mémoire. Et c’est ce que permet XP 64. Donc c’est un OS 64 bits.





Xp 64 n’est qu’un Windows 2003 server 64 desktopisé ^^ il n’a rien à voir avec xp :)


Le 18/04/2013 à 12h 27







OlivierJ a écrit :



La batterie intégrée sur les contrôleurs qui ont un cache peut avoir son intérêt, mais avec les machines modernes bourrées de RAM pas cher et un OS comme Linux qui gère efficacement le cache noyau, l’intérêt est bien moindre. De plus, ZFS ne demande pas de fsck, c’est beaucoup moins gênant si jamais l’OS crashe.



Sans doute que pour toi le RAID hard est préférable, mais pour l’hébergeur que je connais, qui possède une bonne centaine de serveurs dont des serveurs de stockage, depuis l’emploi de ZFS il a arrêté d’utiliser du RAID matériel (à base de carte dédiée) et il n’a aucun souci de performance : il peut écrire sur un de ses SAN iSCSI à 10 Gb/s, peut-être 20 avec le trunking s’il l’a mis en place depuis 2010.



HarmattanBlow a l’air de penser comme moi :





Si je peux me permettre, je ne compare pas ZFS au RAID matériel par carte, mais au RAID matériel par baie disque. Parce que mine de crayon, ça grève les performances de la machine hôte d’avoir une sous-couche logicielle complexe au FS. Perso, le iSCSI Offload par carte 10Gbps me plait beaucoup plus qu’un ZFS.



Après, si tu compare les ZFS d’un serveur 100% dédié au stockage et une baie de disque dur type Equallogic & consorts, dans mon métier je n’ai malheureusement pas la possibilité d’avoir le choix du ZFS, car va trouver quelqu’un qui te vends une Appliance & un support digne de ce nom, je te souhaite bon courage…



<– informaticien d’industrie



Cependant, ça n’enlève en rien que j’apprécie beaucoup ZFS et que s’il n’y avait pas ce p* de problème de licences, mon Oracle Database tournerait dessus au taff (rien que pour le cache SSD en lecture…)…


Le 18/04/2013 à 11h 54







OlivierJ a écrit :



Avec un filesystem comme ZFS (créé par Sun), on ne fait même plus de RAID hardware, c’est le filesystem qui gère tout directement, la répartition des écritures comme la vérification de l’intégrité des données (avec des checksum). Testé et approuvé chez un hébergeur.





Sauf que les raid hard sont 1) plus performant 2) avec batterie intégrée pour les caches, ce qui fait que ce n’est pas la même…

Me dit pas que non, j’ai les 2 et pas des moindres ^_^


Le 18/04/2013 à 10h 22







Edtech a écrit :



Moi qui justement utilise un pool de disques, ça pourrait être bien.



Mais le problème, c’est de stocker les 1Tio de données existantes le temps du formatage !



Ça va être long à copier sur le disque externe en USB 2…





Boarf, tu crées un nouveau volume, tu fais la copie petit à petit etc…. Je vois pas où est le problème.


Le 18/04/2013 à 10h 18







Razorgore a écrit :



Mort.de.rire, le vieux fail



Explication :

Dev : ça y est on a fait les DLC, mais par contre ça marche qu’avec ceux qui les ont aussi en face du coup.

Responsable : Comment ? Mais comment on va les vendre maintenant ???

Dev : mais la fonctionnalité était pas prévue à la base, ça va demander énormément de boulot de changer le système.

Responsable : bon ok, on va transformer ça en grosse campagne de générosité de notre part. Comme personne les achètera, autant les donner, comme ça on gagne en image. En attendant, on bosse sur le prochain DLC qui DEVRA être compatible avec ceux qui les ont pas, justement pour leur donner envie !





“si acheté alors visible a la sélection du perso finsi”

Les MAJs du jeu contiennent tous les costumes.

Les DLCs débloquent les variables d’accès.



Oh merde, c’est compliqué tout ça ^_^


Le 17/04/2013 à 17h 58







arobase40 a écrit :



Après prétendre qu’un ARM devienne un veau avec sa montée en puissance… <img data-src=" />





Sans faire de la voyance, on peut se souvenir d’Intel qui promettait le 7ghz, et qui s’est fait baisé par la longueur du pipeline a l’époque. Donc il ne faut pas sous estimer les blagues de la physique.



En tout cas, Intel en a plus sous le pied qu’Arm… mais Arm n’est pas qu’Arm…


Le 17/04/2013 à 16h 54







sylvere a écrit :



Ca serait intéressant qu’Intel innove en sortant une nouvelle architecture plus moderne que l’ancestral x86.





C’est leur plus fort atout: la compatibilité. Faire des micro-serveurs-web ATOM basse conso, comme par exemple une batterie de Nginx ou Apache reverse proxy, ça poutre en terme de modularité. “Ah, la charge augmente, hop, on allume 2 autres cartes mères qui bootent en PXE en plus des 10 autres déjà en marche”. Le tout avec 0 problème de compatibilité.



Et derrière ça, tu as une autre version du logiciel qui fait tourner la base SQL sur une batterie de quadcore, elle même avec des hôtes allumés à la demande.



Hé oui, la plus belle carte d’Intel peut être Atom, même dans le monde des serveurs…. Mais ça dépendra du bon vouloir des intégrateurs !


Le 17/04/2013 à 17h 52







arobase40 a écrit :



Je le sais parfaitement !



Mais tu ne réponds pas à la question.





La compatibilité avec un logiciel pour pc de bureau qui lui sera majoritairement en OS 64 bits, les diverses sécurités implémentées dans les OS 64bits et qui ne le sont pas dans certains 32bits (pilotes signés sous Windows 64bits par exemple), etc.

Dans le principal viseur des trucs qui aiment le 64bits, je vois les trucs qui lisent des vidéos…


Le 17/04/2013 à 13h 53







arobase40 a écrit :



De toute façon, quel est l’intérêt d’installer un OS 64 bits dans une tablette avec 2 Go de RAM ???





Parce que le 64 bits, ce n’est pas que la limite de ram…


Le 17/04/2013 à 12h 39







bombo a écrit :



Ah donc tu confirmes qu’un CPU 64bits consomment plus qu’un 32bits ?





Ben les registres sont plus grands, donc ils faut plus les alimenter.

C’est peut être de la gratte, mais c’est en grattant qu’on arrive à creuser son trou.


Le 17/04/2013 à 10h 34







Etre_Libre a écrit :



Et cela semble vraiment surprenant comme choix (par Intel) car le Z2760 est vraiment récent, il aurait pu au moins supporter le 64 bits…





Il aurait consommé plus de jus & aurait couté plus cher à produire.

Je rappelle que dans ce monde là, on est au mW et au m$ près.


Le 17/04/2013 à 16h 47







sepas a écrit :



Non, Microsoft ne peut attaquer Google du fait de la licence Android.





Désolé de te décevoir mais Microsoft pourrait attaquer Google.

Le seul hic, c’est que même s’il obtiendrait gain de cause, il n’aurait pas un copec: Les dommages & intérêts sont en fonction d’un chiffre d’affaire, et Google fait 0€ avec Android (au pire, il vends des prestations d’adaptation de son OS à une plateforme).



C’est là que Ms a bien joué.


Le 17/04/2013 à 14h 12







Para-doxe a écrit :



Et le rackette continue. <img data-src=" />





Mais est-ce seulement du racket?



Nous ne le saurons que si quelqu’un ose demande son avis à un juge.


Le 17/04/2013 à 13h 56

Bravo MS, maintenant tous les moyens ne chercheront même plus à négocier, vu que même “l’usine du monde” a plié…



Good luck Googlrola !

Le 16/04/2013 à 18h 34

Ca fait un beau mix entre Android et WP tout ça ^^

Le 16/04/2013 à 18h 31







RaYz a écrit :



Need For Speed Porche 2000 <img data-src=" /><img data-src=" /><img data-src=" />





Hot pursuit 2010 est pourtant très bien je trouve, pourtant je joue à NFS depuis le premier…


Le 16/04/2013 à 09h 53







cendrev3 a écrit :



Difficile de dire le contraire, les derniers burnout étais devenus des need for speed <img data-src=" />.





NFS tends vers Burnout avec Most Wanted 2, mais en aucun cas Burnout se rapproche de NFS…


Le 16/04/2013 à 09h 54







Edtech a écrit :



Elle me paraît plus réactive sur la reprise, c’est déjà ça. Reste plus qu’à la fusionner à Messages qu’on soit tranquille !





Ils ne l’ont pas fusionné?

Ca ne vaut même pas le coup que je la réinstalle alors…


Le 15/04/2013 à 18h 48

Just doubled cling cling cling

Le 15/04/2013 à 18h 48







arobase40 a écrit :



Pour ce qui est des versions Android/iOS, la donne sera totalement différente puisque cela met en danger son produit “Phare”, c’est à dire Windows





Pardon mais le produit phrase de Microsoft, c’est Office, pas Windows…


Le 13/04/2013 à 23h 16







tAran a écrit :



Clair, Flashback ou meme Another World ce sont des jeux d’une autre époque.



Je ne me souviens pas avoir joué à d’autres jeux aussi exigeants après leur sortie <img data-src=" />





The 7th guest…



Les jeux étaient beaucoup plus durs avant, ça c’est sur…


Le 12/04/2013 à 11h 49







popi_le_clown a écrit :



Non, je ne sais pas <img data-src=" />

C’est d’ailleurs bien pour ça que je pose la question <img data-src=" />

Du coup, je vais me renseigner. <img data-src=" />





Pour bien comprendre pourquoi, l’idéal est de se renseigner sur les certificats asymétriques. C’est assez simple à comprendre, même si le fonctionnement est hyper-complexe, lui.







Et par dessus cela, il faut prendre en compte que les principaux organismes de certification (verisign ‘n’ co) ont leurs certificats déjà déployés dans Windows. Il faudrait donc altérer ton ordinateur avant de pouvoir effectuer une telle attaque…. Autant dire que ce n’est pas du tout évident ^^


Le 12/04/2013 à 10h 51







popi_le_clown a écrit :



Mais tant qu’à faire du dpi, pourquoi ne pas modifier les certificats à la volée de manière à ce que ça soit invisible pour l’utilisateur ? Est-ce sérieusement plus compliqué ?





Je pense pas que tu comprennes le degré d’implication nécessaire pour falsifier un certificat signé…


Le 12/04/2013 à 08h 25







spidy a écrit :



en ayant mis en place un serveur VPN PPTP (donc proto GRE) avec mon NAS syno chez moi je peux te dire que ni OVH (ADSL) ni Orange (Sosh) ne bloque le GRE même en n’ayant le port par défaut (1723)



le VPN fonctionne en utilisant le tel android ou même en tethering wifi avec un win xp (client VPN directement)





Pardon j’ai confondu avec IPSEC qui fonctionne en IP (50 si je ne m’abuse), et non pas en TCP, et du coup les routeurs NAT (:coucou: la 3G d’orange) n’aiment pas.







saf04 a écrit :



globalement non.

je t’explique grosso modo vulgarisé:

le vpn est un reseau privé a connection par SSL.

le DPI qui va voir sortir les paquets de chez toi va les modifier pour mettre le chiffrement du SSL a null.



il faudrait choisir des offres vpn qui résistent au dpi, et je ne sais pas s’il en existe beaucoup hors milieu professionnel.





Si, avec un cryptage tiers manuel. En gros, un VPN avec certificats asymétriques, et une clé manuelle qui sert à randomiser le certificat (en gros). Du coup, cette partie manuelle, qui transite par un autre biais que le canal de communication du VPN, n’est pas vu par le DPI, qui n’a pas la clé pour le casser. Tout le reste est caduc.



De plus, un tunnel SSL, c’est le VPN du pauvre ou de l’inconscient. (ça revient à acheter des capotes prétrouées)


Le 12/04/2013 à 07h 24







HarmattanBlow a écrit :



Non, l’user-agent figure dans les en-têtes des paquets http, son examen ne nécessite donc pas une inspection du contenu des paquets, ce qu’on appelle DPI.





Si, parce que le DPI c’est quelquechose qui va plus loin dans l’entête du paquet. Et le paquet, il est IP. Les entêtes TCP, UDP et les entêtes applicatives sont toutes exploitées grâce à du DPI.



Les routeurs de niveau 3 n’existent que grâce à du DPI avec un cœur de métier très ciblé.


Le 12/04/2013 à 07h 22







bubka a écrit :



quel rapport avec le DPI ?





Il n’y a que 2 technos qui permettent de faire cela: un proxy transparent et un DPI couplé à un routeur type NAT (mais pas le NAT de nos box). Et un proxy transparent pour faire ça, ça demande énormément de ressources…



Le DPI est la base de toute analyse réseau, et n’est pas méchant. Par contre, l’outil avec lequel il est couplé est, lui, méchant: Routeur, Proxy transparent, système de traçage, espionnage complet, redirection de trafic à l’insu de la personne, etc…



Perso je dirais:




  • Numéricâble: oui. QoS sur le service utilisée selon les ports & le type de service (avoir un VPN HTTPS sur le port 443 ne permet pas de gruger s’il n’a pas d’useragent)

  • Orange: Fixe non (ou à fin d’analyse de cœur de réseau uniquement) Mobile ultraoui depuis 2009: mode modem détecté, proxy transparent, NAT

  • SFR: Mobile je dirais que non, Fixe je dirais que non.

  • Bouygues: Fixe peut être (vu que associés avec numericable), Mobile je ne pense pas.

    Et globalement, le protocole GRE bloqué (VPN IPSEC) par tous correspond à un des usages du DPI….


Le 11/04/2013 à 19h 22







momoleod1 a écrit :



Je trouve qu’on en fait quand même beaucoup sur une société qui fait plusieurs milliards de bénéfices par trimestre et qui a les reins très solides. C’est limite ridicule…





Pour la plupart des gens, Microsoft ce n’est que Windows & Office, ils oublient tout ce qu’il y autour..


Le 11/04/2013 à 12h 15







David_L a écrit :



Lorsque flash n’est pas supporté sur tablette, la transition se fait déjà automatiquement normalement <img data-src=" />





Sauf que je te rappelle que IE10 Metro ne possède plus la liste blanche Flash ^^


Le 11/04/2013 à 11h 20

Ma tablette vous remercie par avance… vu les ressources prises par Flash dessus !

Le 10/04/2013 à 12h 14







illidanPowa a écrit :



donc oui le ssd est l’avenir du stockage sur les grandes fermes de serveurs. Tous les grands s’y mettent.





Pour le fonctionnement, oui.

Pour le stockage pur, non.



Et puis le prix n’est pas le même aussi… Il faut avoir les moyens de passer au SSD sur des baies de disques durs.


Le 10/04/2013 à 06h 52







Skeeder a écrit :



ça serait dommage d’acheter une prise ampermétrique pour voir si j’économise de l’argent <img data-src=" />

Je me base simplement sur les tests de ma carte mère + processeur, j’estime la conso RAM et la conso disque en idle avec d’autres tests. ça me donne un gros chiffre malheureusement (Core 2 Quad première génération, carte mère avec 2 southbridge, carte PCI-E pour le RAID disque, carte graphique etc.). c’est une erreur de casting, mais cela m’a permit de recycler une vieille config





Clair <img data-src=" /> Mais ta config consomme environ 100W pleine charge en supposant que tu aie une alimentation standard, et te coute donc 100€/an en jus. Si tu l’éteinds 75% du temps, tu économise 75€/an. Est-ce que tu changes un disque dur par an? Si la réponse est oui, arrête de le mettre en veille ^^ (Ca a été mon calcul, d’où le H24 et serveur web/mail à la maison maintenant)







Obelixator a écrit :



<img data-src=" />

Si l’on retire le “cas particulier” OCZ, les 4 principaux fabricants de SSD ont un taux de retour inférieur aux 4 principaux fabricants de HDD <img data-src=" />



En ce qui concerne les SSD CRUCIAL, même si ça n’a que très rarement été les meilleurs en terme de performance pure (ce qui ne se traduit d’ailleurs que rarement en performances ressenties), ils ont connus que très peu de bug (1 seul je crois, celui des 5000 heures), et leurs MàJ de firmwares ont toujours été régulières et, sauf exception que j’aurais loupé, sans perte de données <img data-src=" />



Edit : Grilled par yvo2m <img data-src=" />





Y’a panne et retour. Tu ne retournes pas tous les SSD en panne: certains sont réparables.

Pour information, le M4 a eu 5 ou 6 firmwares en 1 an, dont:




  • le bug des 5000h

  • un correctif de non redémarrage sur non sortie de veille

  • une réduction du potentiel de perte de données sur perte brutale de courant



    Perso, sur le paquet de SSD que j’ai, y’a eu beaucoup où MAJ firmware + formatage a résolu le problème, mais vu qu’il y avait de la corruption de fichiers par le SSD, ben quand ça tombe sur un fichier système ou un fichier SQL Server, ben tu es obligé de formater pour réinstaller….





    raoudoudou a écrit :



    Avec des si, on mettrait Paris au conditionnel…





    Tu sais, peu de problèmes en informatique arrivent tous seuls sur le matériel. Maitriser les “Si”, c’est limiter les emmerdes: c’est ça mon propos.



    Si tu ne sais pas que ton SSD est sensible aux coupures brutales de courant et que tu n’es pas très patient sur ton pc, et que t’y mets des coup de bouton power brutaux tous les jours, tu aura des emmerdes tous les 6 mois - 1 an ^^

    Un disque dur, quand il fait quelquechose, on l’entends…


Le 09/04/2013 à 20h 55







raoudoudou a écrit :



Mais pourquoi ferait-il quelque chose? Ça n’a aucun sens <img data-src=" />



D’ailleurs, si j’en crois les graphs de consommation qu’on peut lire par exemple ici

http://www.tt-hardware.com/test/hardware/comparatif-ssd-128-go-crucial-m4-samsun…



Il ne doit vraiment rien faire avec sa mémoire, vu la chute de conso…





Ces mesures sont ponctuelles. Rien ne te dit que le SSD ne va pas décider de faire un truc pour d’optimiser un peu.



Skeeder a écrit :



Je ne mets pas en veille les disques durs, je mets tout le PC en veille prolongée (donc économie d’environ 50W) lorsqu’il n’y a pas d’ordinateur allumé sur le réseau depuis 30min. Cela permet de démarrer 1 à 2 fois le NAS par jour (en rentrant du boulot, voir le matin), tout en économisant le soir et la journée plus de 50W (c’est une config type Core 2 Quad avec 9 disques, pas optimisée pour l’économie d’énergie …). Je dois économiser environ 50 à 70€ par an grâce à ça, ça me rembourse mon Crash Plan <img data-src=" />





Achète une prise ampermétrique, regarde la conso sur 30mn quasi idle, 1W=1€ par an. Moi je suis à 65W en moyenne sur 24h (tv serveur etc…)


Le 09/04/2013 à 19h 36







Skeeder a écrit :



Ok donc pas vraiment un des cas que je risque de rencontrer. <img data-src=" />





Par contre, un NAS qui gère la veille des disques durs te fera économiser genre 3W (soit 3€/an) mais te flinguera la vie du disque dur: les disques durs fonctionnent plus longtemps H24 qu’avec moultes démarrages.





raoudoudou a écrit :



J’ai un onduleur. Mais quoi qu’il en soit, je trouve important la résistance d’un matériel à la coupure de courant. Ça m’est arrivé avec un SSD avant que j’ai l’onduleur. J’ai même pas eu un secteur de foiré. Ceci dit, y avait rien qui tournait sur la machine, je veux dire, pas d’écriture à ce moment là.



Pour moi, le trim ne change rien. Ça écrit simplement les données à un autre endroit, mais ça n’écrit pas plus souvent. Quant au garbage collector, sur un disque, on parle de quoi? La poubelle? <img data-src=" />





Le hic c’est que tu ne sais pas ce que fait le SSD quand tu ne lis/n’écrit pas dessus.







raoudoudou a écrit :



Bref, c’est pour ça que j’aimerai bien des informations plus concrètes sur l’effet d’une coupure de courant d’un SSD.



Hormis les infos glanées à droite à gauche, je peux te dire une chose très simple: j’ai 20 utilisateurs avec des PCs portables et des SSDs. J’ai moi même un SSD sur chacun de mes ordis et j’en ai installé quelques dizaines avec le conseil de ne jamais couper le courant brutalement (ou tirer la batterie jusqu’au bout de la batterie pour les pcs portables) (ps: que du Crucial M4 64/128Go). Ben j’ai eu 3 pannes de SSD, sur 3 pcs de commerciaux, et je sais parfaitement que ce sont les commerciaux qui tirent la batterie jusqu’au bout, contrairement à ce que je leur ai conseillé….



Les SSDs c’est un gain énorme, c’est indéniable, mais c’est plus de soucis qu’un disque dur ^^



PS: mon serveur possède un SSD 128Go pour l’OS & la partie mediacenter, et X disques durs pour les données et les machines virtuelles…


Le 09/04/2013 à 14h 05







raoudoudou a écrit :



Source? T’as oublié de préciser “pendant des écritures intensives” peut-être? Et encore…





Y’a eu des tests y’a pas longtemps là dessus, je crois qu’il y en avait un à 34. Je ne saurais te retrouver le lien. D’expérience, j’en ai eu un qui a tenu 3-4 coups (merci Murphy de veiller sur moi), et d’autres qui fonctionnent parfaitement..

En dehors des écritures intensives, y’a le trim et le garbage collector qui bossent de manière aléatoire je crois aussi.



Après, tu va me dire “oui mais t’as qu’à prendre un onduleur” auquel cas je réponds “un appui long sur un bouton power c’est une coupure brutale de courant”.


Le 09/04/2013 à 13h 29







illidanPowa a écrit :



tu as comparé la fiabilité entre les deux technologies (ssd et hdd) avant de dire une connerie?



sans compter sur le fait qu’un choc suffit à rendre HS un hdd…..





Tout à fait. Sans compter qu’il suffit de moins de 30 coupures de courant non sollicitée pour flinguer un SSD.

On parle de NAS là. Du truc qui bouge jamais et qui ne s’arrête jamais. Les disques durs non-arrêtés sont ce qu’il y a de plus fiable et de moins cher au Go/€., et si tu veux de l’encombrement, tu mets du 2”5 5400tpm qui est moins énergivore et déjà très bon en débit brut (seul le temps d’accès sera un peu ralenti).



Si tu veux des retours sur les disques durs, regarde les entreprises depuis 10 ans… Y’a pas besoin d’avoir le doigt en l’air.



Perso, j’ai été plus emmerdé en 18 mois avec des SSDs qu’en 3 ans avec des HDDs. Et je parle pas que d’un SSD, mais de plus de 20 (genre au taff).





brazomyna a écrit :



C’est une question de moyen et de besoin.





Fais toi un NAS avec un celeron sandy double cœur, une distribution qui supporte le ZFS, un SSD SLC en cache de lecture & des disques durs en miroir, si tu as les moyens. C’est bien plus efficace et économique. (Avoir les moyens, ça ne dure pas si on claque inutilement ^^)


Le 09/04/2013 à 12h 06







brazomyna a écrit :



Deux SSD d’un To en RAID pour mon ptit NAS ; voilà qui pourrait être sympa et finir complètement ma migration vers du non mécanique.



C’est chouette que les prix deviennent enfin abordables.





Oué enfin mettre 1100€ dans 2 SSD, c’est un peu du gachis pour un NAS quand même… Surtout quand on voit la fiabilité.


Le 10/04/2013 à 11h 35

Boarf, c’est juste qu’Apple va vouloir lancer un truc similaire, à tous les coups <img data-src=" />

Le 09/04/2013 à 20h 49







olivier4 a écrit :



comme tu le dis si bien , c’est minimal. et en fait windows phone n’exploite pas vraiment la puissance matériel contrairement a ce qu’on peut trouver sur android parce que la encore on est obligé de passer par microsoft. alors que les constructeurs et les développeurs aimeraient plutot configurer l’os a leur convenance. c’est comme cela qule matériel évolue et que l’innovation devient possible.

ce qui fait qu’on se retrouve avec des tel haut de gamme avec un market assez pauvre ou alors on a des tel bas moyenne gamme qui sont bridés et peu optimisés





En même temps, c’est pas à l’os de bouffer les ressources processeurs, c’est aux applications. L’os doit être optimisé pour économiser au max le processeur tout en étant d’un usage fluide…


Le 07/04/2013 à 18h 57







djbudge2 a écrit :



J’ai pas suffisamment explicité mon propos : Une application qui t’affiche un bon gros message “update failed…” et “error code = 0”, ça fait peur. Tu sais pas si le firmware a été mis à jour (error code = 0), ou si tes SSDs vont servir à caler une armoire (update failed).



Je me doute, mais vu que je sauvegarde toujours avant via un backup Windows, tant pis si l’update flingue les données ^^







djbudge2 a écrit :



L’outil de mise à jour que j’avais utilisé la fois précédente était lui aussi bien bugué. Ok le développement logiciel n’est pas le cœur de métier de Crucial, mais il pourrait faire un effort…





Oué enfin faire un outil de patch, ça devrait être leur métier. C’est quand même LE truc qui leur fait économiser en SAV… D’ailleurs, l’outil Windows 8 + SSD en AHCI est super ^^


Le 07/04/2013 à 12h 57







djbudge2 a écrit :



C’est un peu la loterie leur outil de mise à jour Windows 8.



J’ai lancé la mise à jour pour 2 SSD, à chaque fois un message d’erreur avec un code d’erreur 0. Bilan, les 2 SSD à jour <img data-src=" /> Ça fait un peu peur…





Code erreur 0 en informatique, c’est pas d’erreur…


Le 04/04/2013 à 20h 49

Il ne manque plus que l’envoi automatique de photo comme sur Windows Phone et c’est parfait ^^

Le 04/04/2013 à 11h 15







RaYz a écrit :



Du Hentaï <img data-src=" />





Si tu n’y a jamais joué, je t’invite à le faire. Ce jeu est fabuleux.


Le 04/04/2013 à 09h 01



Day of the Tentacle a par exemple influencé toute une génération, et est considéré comme un des meilleurs jeux d’aventures jamais sortis. Autre jeu d’aventure du studio : The Curse of Monkey Island qui lui aussi a rencontré un grand succès lors de son lancement



<img data-src=" />

Ce sont juste des jeux dont on ne trouve pas d’équivalent depuis 10 ans…

Le 04/04/2013 à 08h 27







Polux008 a écrit :



Sauf si le mec à fait la baitise de donner sa vraie identité en donnant son profile facebook, je ne vois pas comment le mec aurait pu le diffuser à ses amis ?

Et te suicider parce que tes potes vont te voir entrain de te turlupiner ?

Une pensé pour la famille de la victime, parce que c’est vraiment une mort con.





Tu sais, y’a des gens qui font du vrai piratage, pas que du lançage de vers.


Le 03/04/2013 à 15h 46







ldesnogu a écrit :



Bien évidemment qu’un proc ARM ne pourra pas tout faire, je l’ai dit c’est pas le but. Et pour ton histoire de prix, t’as un lien ? Ou c’est du finger in the air ?





Je me doute, ça fait 8 ans que j’y bosse <img data-src=" />





Finger in the air constaté par mon expérience (ça vaut ce que ça vaut)



Mais 8 serveurs = 8 ou 16 ports réseau + le stockage individuel (sauf PXE) + 8 fois plus de matos à maintenir ainsi que les softs. Et je compte pas la place prise ^^ A la rigueur, il faudrait un chassis blade, mais dès qu’on parle de ça, les tarifs s’envolent encore plus…


Le 03/04/2013 à 06h 33







ldesnogu a écrit :



Pourquoi virtualiser sur ARM ? Le but est de faire des CPU assez faiblards qui consomment peu et permettent de faire pile-poil ce qu’on veut. Actuellement la virtualisation est le meilleur (seul ?) moyen d’augmenter le taux d’utilisation de CPU sur-dimensionnés. Enfin il me semble.



ARM n’est pas près d’atteindre ce qu’Intel sait faire, mais ce n’est pas le but non plus. Et ça serait idiot : comment rattraper 20 ans de compétences accumulées ?





Justement, un serveur mono-processeur x86-64 coutera moins cher que 8 serveurs ARM. Et pour les “petits” serveurs de site (DNS/DHCP/Active Directory/Fichiers), les Xéons d’entrée de gamme sont parfois limite…



ps: Pour info, ARM, ça a pas 2 ans hein ;)


Le 03/04/2013 à 07h 02







Yangzebul a écrit :



Pour que ce soit consultable par le détenteur il faudrait une interface utilisable. Personne ne va acheter un lecteur de carte pour ça.

Une CB avec un port USB dans un des angles ferait l’affaire. Voir même un pinout SD la plupart des PC on un lecteur SD maintenant et au niveau épaisseur c’est compatible.





Les prises USB sur carte, ce n’est pas quelque-chose de viable: ça casse très vite.

Je serais plus intéressé par un export automatique de toute banque vers un soft de gestion de pepettes, mais le seul qui le faisait automatiquement était Microsoft Money, et il ne se fait plus <img data-src=" />


Le 03/04/2013 à 06h 36







zaknaster a écrit :



Pourquoi pas, ça m’a toujours soulé de prendre le ticket de caisse. A la limite c’est utile quand on veut vérifier ce qu’on a acheté immédiatement car les erreurs sont quand mêmes courantes à la caisse. Mais globalement moins j’ai de papier mieux je me porte <img data-src=" />





Idem. Si la caisse enregistreuse possède un grand écran historique, je suis ok, sinon, je suis parfaitement contre: ils cherchent encore plus à enculer les gens sur les erreurs de cents…







Yangzebul a écrit :



Je me suis d’ailleurs toujours demandé pourquoi les CB n’avaient pas une petite mémoire Flash consultable par le détenteur qui stoquerai un historique des dernières opérations.





Parce que c’est le cas.