votre avatar Abonné

Wosgien

est avec nous depuis le 18 mars 2003 ❤️

3758 commentaires

Le 22/04/2015 à 15h 52

Mon iPod Touch va devoir se passer de youtube.

Mais en fait, c’est pas comme si ça me concernait finalement. Je ne suis pas utilisateur de YouTube en général (je m’en passerais sans problème), et mon iPod commence à franchement fatiguer.

Le 21/04/2015 à 14h 19







geekounet85 a écrit :



Ce que je voulais dire, c’est que tu n’a pas de manière de contacter quelqu’un avec ton téléphone autrement qu’en payant un fournisseur d’accès.





Moi j’ai encore une SIM de neuf, facturée 0€ pour 10min (SFR m’envoie toujours un mail par mois). C’était à l’époque fourni pour appeler la hotline en cas d’interruption de service ADSL pour les clients qui ne payaient plus Orange et qui avaient lu les toutes petites lignes et trouvé comment commander cette SIM.


Le 20/04/2015 à 19h 32







YesWeekEnd a écrit :



Un Wiko à 100€ n’a pas les perf d’un Athlon 64 X2 4800+ (guide achat noël 2005 sur un site connu) qualifié de haut de gamme.

Il n’a pas non plus la même quantité de mémoire ni la même capacité de stockage.

 



Tout à fait d’accord pour le stockage. On peut ranger une série de BD dans le boitier de l’Athlon, pas dans le Wiko<img data-src=" />


Le 17/04/2015 à 14h 14







Ksyl a écrit :



Merci pour tes lumières ! Est ce que cette nouvelle MAJ est bénéfique pour la durée de vie du SSD, matériellement parlant est ce que je prends des risques à laisser courir ?





Premièrement: Pas de perte de données liée à ces bugs de firmware sur internet.

Deuxièmement:&nbsp; Tu n’as encore pas de symptômes visibles du problème -&gt; cela te

donne un peu de temps pour voir s’il te concerne. Prépare ta solution.

Identifie les symptômes sur les ordis que tu as et observe leur évolution sur un ordi d’utilisateur lambda. Fais-toi une idée du temps avant que cela ne gêne l’utilisateur (quand le débit moyen se rapproche un HDD par exemple)

Troisièmement:&nbsp; pour des utilisateurs Lambda, la gêne arrive progressivement, soit attentif à “mon ordi rame”, “il se fige et repart” “il met un temps fou à ouvrir tel document très lourd”.



Rappel pour des ordis d’entreprise: si tous les fichiers de l’entreprise sont sur le réseau, seuls les chargements d’appli sont touchés, ou les chargement de boite mail.

&nbsp;

Au vu des échanges sur les forums, les gens qui se plaignent voient les problème surtout via HDTach & consorts. Mon approche: soit prêt à traiter le problème, et solution en poche laisse venir au cas par cas. Si tu vois trop d’interventions rapprochées, tente d’automatiser le déploiement. Peut-être les opérations de Samsung Magician sont scriptables? Une tâche d’“optimisation” tout les mois devrait amplement suffire.

Ne pouvant pas l’exécuter, je n’ai pas de réponse sur ce point.


Le 17/04/2015 à 07h 59







iodir a écrit :



D’où ça sort ça ? Jamais entendu du dire que les ssd faisaient du rafraichissement de cellules en background. Quand à la durée de conservation, j’avais plutôt entendu parler de 10 ans avec du MLC (quand les cellules sont écrites pour la première fois).



Je confirme qu’une recherche sur “SSD data retention time” ouvre bien les yeux.



La réponse de dell dans une FAQ: Réponse 6: 3 à 6 mois.Dans un document du JEDEC: Slide 27: Cela dépend de la température d’utilisation et d’arrêt


Le 16/04/2015 à 17h 38

J’espère que ça suivra chez les OEM (Samsung Magician ne reconnais pas les SSD OEM Samsung, même dans une machine Samsung).

Et que je pourrais en profiter, ayant récupéré un SSD OEM DELL pour une tablette Samsung …

Le 09/04/2015 à 20h 42







Ricard a écrit :



Cool. Comparer Alfresco avec un home serveur…





Alfresco ne couvre qu’une partie, la partie la plus visible par le reste de la famille.


Le 09/04/2015 à 16h 35







atomusk a écrit :



Home server est mort depuis quelques temps … à mon grand regret





Au mien aussi.



Du coup, moi j’ai opté pour un Linux avec Alfresco pour ce qui est du stockage documentaire. Un régal, il permet d’accéder aux fichiers par une interface web, en partage windows (alfresco se déclare comme un ordi - l’arborescence n’est pas la plus simple mais ça marche) ou webdav. Sans compter le client de syncrhonisation à la drop box, et la réplication sur mon serveur OVH pour la sauvegarde (à peaufiner encore pas mal).

Plus la recherche avec les aperçus. Il dépasse sharepoint foundation sur plusieurs point.



Pour le stockage photo/vidéo, je me tate encore. Owncloud a vite été enterré sur ce sujet, il est pire que la galerie photo Windows 8 sur ce point.


Le 07/04/2015 à 21h 58







Mudman a écrit :



La référence en matière de perf c’est quand même CLang. Même si GCC rattrape son retard.





Clang est surtout utile pour son côté libre comme dans “libre comme l’air”.

CLang a été choisi par FreeBSD non pour les perfs, mais pour se libérer de cette fichue GPLv3.



Là c’est une véritable guerre de religion: les libristes “à la linux” où ce qui est libre doit rester libre, et les libristes “à la BSD” où tu fais ce que tu veux du code, pas d’obligation de rendre les modifs libres. En gros.



Maintenant, j’ai quand même des échos où Clang+LLVM a de bonens perfs sur d’autres archis que x86, et surtout que pour toute nouvelle archi LLVM est plus facile à porter.



Enfin, LLVM, quoique moins performante sur le papier, a été intégrée à plein de projet et contenu de l’être pour sa versatilité et sa capacité à créer un code natif optimiser on the fly.


Le 07/04/2015 à 14h 54







Mudman a écrit :



La référence en matière de perf c’est quand même CLang. Même si GCC rattrape son retard.





Il est rare que les programmes compilés par CLang soient plus performants que ceux produits pas gcc (en tout cas sur x86/x64) (selon les tests de Phoronix). Mais cela arrive effectivement.



Après, un écart de 5% sur un CPU est parfois un écart de 10% sur un autre CPU, ou carrément 5% dans l’autre sens. Donc si c’est 5%, c’est souvent non significatif si tu comptes déployer ton programme sur un parc hétérogène.



Si par contre tu connais ta cible, que ton calcul s’exécute sur des jours/semaines, 5% c’est la différence entre avoir le résultat le vendredi soir ou le vendredi dans la journée. donc là ça compte. Mais là certainement que tu as un calculateur à ta dispo, et dans la plupart des cas tu fais de l’OpenMP, donc tu as déjà évincé Clang+LLVM qui n’a pas encore de support.



Par contre, gcc est une horreur à utiliser je trouve, CLang a des messages d’erreur plus clairs et plus précis (il indique la ligne où est l’erreur, pas 1000 lignes plus bas…), il compile beaucoup plus vite et en utilisant facilement moitié moins de mémoire.

Sur un serveur de test automatisé, Clang c’est une ballade, gcc est une torture…


Le 07/04/2015 à 12h 21







geekounet85 a écrit :



Pour faire simple le TDD serait du série et le FDD du parallèle?





Non, c’est du half-duplex au lieu du full duplex.

C’est la différence entre le talkie walkie et le téléphone.


Le 31/03/2015 à 18h 21







minette a écrit :



&nbsp;&nbsp; tu peux m’expliquer en quoi ça ouvre quoi que ce soit pour les constructeurs ? Ils n’auraient pas eu l’idée de sortir des tablettes ou hybrides sous atom x7 si elle n’était pas sortie ?



Je voulais simplement dire que les constructeurs avaient une crainte quand microsoft a commencé à parler de la surface, que Microsoft ne fasse un prix ras des paquerettes histoire d’inonder le marché.

Les constructeurs auraient menacé de ne rien sortir sous Windows, déjà que eux doivent payer une licence Windows, leur marge aurait été plus que rabotée. A ajouter au fait que le marché n’existait pas et n’était pas assuré pour des produits sous Windows.



Je constate qu’il n’y a pas vraiment d’autre constructeur correct (Asus, Samsung, Acer), mais que Microsoft ne lance pas de super offres pour donner goût aux tablettes Windows chez les étudiants par exemple.


Le 31/03/2015 à 16h 22

Microsoft semble toujours tenir à ouvrir la voie aux tablettes Windows sans risquer que la concurrence ne les attaque en abus de position dominante visiblement.



A ce prix là, les concurrents peuvent se placer.

Le 30/03/2015 à 11h 49







Epy a écrit :



Si tu parles bien de la box TV, vu que c’est l’OS Google TV, c’est logique d’aller chercher les infos sur Google ^_^

et du coup, ils maitrisent peut-être le hardware et sont responsables de ses défauts, mais pas l’OS s’il est mal foutu, non ?



Non, je parle de free en général avec des paramètres à changer soit:





  • sur ta page sur free.fr

  • sur la page de ton serveur mafreebox.free.fr (192.168.0.254 si l’accès ADSL ne fonctionne pas)

  • sur la box mini

  • sur le serveur directement



    Il y a beaucoup de fonctionnalités, certes, mais même pour des fonctionnalités de base (code parental, code d’achat, activation Wifi), tu ne sais pas où donner de la tête.De base la box fonctionne en Wifi, mais le boitier TV ne la voit pas (il voit les réseau orange du voisin, mais pas la freebox qui est en face de lui). Ton boitier freebox server t’affiche “wifi actif”. tu vas quand même sur internet, tu cliques sur “activer le wifi”, tu redémarres ta box (que tu dois redémarrer à chaque fois que tu changes quelque chose pour être sûr que ça marche), et le boitier TV voit ta box.&nbsp;C’est quand même du basique d’avoir son boitier TV qui voit la box sorti du carton!!!



    Chez SFR, ça roule tout seul, et jamais tu redémarres la box pour changer un paramètre!



    Maintenant, quand ça marche, tu n’y touches plus. Mais pour du matériel de 2015, l’interface est très approximative et trop éclatée.


Le 30/03/2015 à 08h 34







killer63 a écrit :



Trop cher

l’offre red à 29.99€ est une box low cost recyclée avec un bouquet TV misérable ( uniquement tnt)

en plus le forfait 2h/sms illimité est en supplément

bref, rien de comparable avec une offre mini 4K à 29.99 avec le forfait mobile déja compris



avec un réseau fixe boiteux ( du cable) et le réseau mobile le plus miteux de tous les opérateurs, sfr a vraiment du soucis à se faire





Si la box SFR a la finition habituelle, désolé, c’est un bien meilleur choix pour la majorité des gens.



La box free est un gros sac de noeud. Internet depuis la box server, OK, ça marche impécable juste en branchant.



Mais:le WIFI il faut l’activer par une page web, la TV de la mini est un boitier qui fait trop de bruit, et qui est un embrouillamini de fonctionnalités. Pour acheter un film il faut appuyer sur la touche free pour activer son code d’achat (non documenté dans la boite de la mini, non demandé au 1er démarrage), qui ne retiens pas qu’elle est en wifi (il faut donc toujours lui redésigner le SSID)



La box mini 4K ressemble à un bidouillage infâme. Pour l’utiliser, tu dois googler en permanence, et quand tu as lancé un film tu pries pour qu’elle ne plante pas. N’oublions pas l’avance et retour rapides qui n’existent pas.

Free ferait bien de s’inspirer de la concurrence (exemple: box vidéofutur, bien plus ergonomique)



La box server mini fait aussi du bruit, plus que la pompe de l’aquarium. Je leur demanderai bien d’ailleurs un kit de refroidissement à eau, pour que la chauffe de la box server (CPUà 80° en permanence) serve à quelque chose.



Pour la bidouille, je ne dis pas, la box de free a énormément de possibilités, mais pour quelqu’un qui cherche toujours à avoir un matos correct et fiable avant tout, elle fait un peu peur.



Quand au téléphone mobile, SFR a une bien meilleure couverture que Free/orange par ici. Pour le débit, je ne sais pas, je n’ai pas de 3G/4G. Mai pour le téléphone, on n’est pas coupé tout le temps.

Et quand on se balade loin des autoroutes, ceux qui ont un forfait free se retrouve avec un GPS sans carte sur leur iPhone, alors que les autres ont le GPS et la carte, puisque eux captent…



Free, c’est un réseau de téléphones mobiles statiques. Quand tu commence sune conversation, tu ne bouges plus surtout.


Le 27/03/2015 à 08h 59







John Shaft a écrit :



Je ne comprends pas sur quel fondements ils font payer moins cher pour les photos que pour le reste. Un tas d’octets “image” est identique à un tas d’octets “zip”.

<img data-src=" />





Parce que les photos ils pourront bientôt les analyser pour te proposer des pubs???



Ou parce que les photos pèsent moins lourds que la sauvegarde des vidéos, et que la majorité des gens n’ont pas de documents bureautique.


Le 27/03/2015 à 08h 57







js2082 a écrit :



Si cela se fait dans le respect du défunt, ça n’a rien de gênant.





Le problème, c’est que le web n’est pas gravé dans le marbre.

Un piratage, du détournement d’information, et il y aura de quoi se retourner dans la tombe.

Après, je dirais que la vie réso-sociale des morts ne doit pas être si risquée et trépidante.



J’imagine que le but est de pouvoir envoyer des fleurs virtuelles via facebook à un mort, histoire de montrer qu’on pense encore à lui quand FB vous rappelle certaines dates?


Le 26/03/2015 à 17h 32

Alors que plein d’études montrent l’effet néfaste des écrans pour les moins de 3 ans dès que ca dépasse 30 min / j, tant au niveau concentration, motricité des mains, coordination des mouvements que de la perception de l’espace (basé bien sûr sur des “normes” liées à un monde où l’écran n’avait pas une place prépondérante), on nous pond ça?



Ils veulent créer des enfants dépendants aux écrans avant même qu’ils apprennent à tenir un stylo? Ils ne sont pas prêt d’écrire alors!



Et ils auront un petit brevet avec???

&nbsp;

Et ils ne sont pas dans les salles de classe pour gérer le matériel non plus.

&nbsp;

Utiliser les outils, c’est très bien, mais à bon escient. Bon, remarque, je ne sais pas quel accueil avait été fait par les parents aux cours d’info sur MO5 dans ma jeunesse.

Le 26/03/2015 à 15h 27







HCoverd a écrit :



Ca à la couleur du libre, le goût du libre mais ça n’est pas libre. Ça me rappel une certaine pub pour Canada Dry tout ça :-)





Moi ça me fait plutôt penser au Shareware. La belle époque des catalogues où tu achetais par correspondance des disquettes avec des logiciels souvent partiels, qu’il fallait payer pour avoir le complément.



Reléguer Office au terme “shareware” me semble une belle revanche.


Le 26/03/2015 à 10h 36

Il faut déjà faire prendre conscience aux gens qu’il existe des zones interdites de vol -&gt; communication par les vendeurs, interdiction de vente d’un modèle n’ayant pas le petit papier indiquant qu’il faut se concilier aux zones permises.



Ensuite, l’émetteur intégré au drône n’est pas idiot du tout. Sur un terrain de modélisme, chacun a son truc (par exemple, des pinces à linges, une par canal et par terrain de vol) pour savoir si quelqu’un utilise le canal de fréquence. Avec l’engouement pour les drônes, je pense qu’il pourrait y avoir des interférences. Donc mettre une alerte sur son drône indiquant que le canal de transmission est chargé n’est pas idiot. Et envoyer le signal à partir d’un drône en vol n’est pas si idiot non plus. Cela permettrait de créer des bornes pour des zones sans drône aussi.



Ca peut éviter de ramasser du petit bois ou de blesser quelqu’un.



Pour l’immatriculation, je n’ai rien contre! Si on force les gens à se payer une immat, ça limite les utilisations “sauvages”. Mais il faut pas mettre une plaque de la taille de celles d’une voiture non plus.

Le 26/03/2015 à 06h 40







Grumlyz a écrit :



J’en ai testé pas mal, mais soit ils sont injouables, soit il faut payer pour y jouer normalement, soit ils sont ennuyeux et répétitifs, parfois-même ils cumulent ces défauts.



Moi je privilégie les jeux payants, limite à plus de 5€. Ca doit être pour cela que j’en ai une dizaine en tout. Mais quand je compare aux jeux “gratuit” ou “free to play”, souvent les jeux payants sont mieux, dans le sens où je peux y jouer pour d eplus longues parties quand je veux. En général le jeu se met en pause quand je mets en veille, donc pas besoin de sauvegarder. Les autres (gratuits et FTP) fonctionnent souvent sur un mode de jeu où tu peux jouer 3 minutes toutes les 3h, c’est rageant. Je ne peux pas jouer tous les jours.


Le 26/03/2015 à 06h 33







tazvld a écrit :



Enfin, l’écran tactile est certes une bonne interface de contrôle, mais rien ne remplacera les boutons bien réel, des sticks qui ont un retour vers le centre et une bonne croix directionnelle pour leur précisions et leur retour haptique.



&nbsp;

Le problème du jeu sur iPod Touch (entre autres):&nbsp; tu touches l’écran pour déplacer le perso, et là tu ne vois plus rien puisque tu as les doigts sur ton perso.

Le “stick virtuel” est trop petit



Par contre, il y a des réussites: Carmageddon a été très bien adapté.


Le 24/03/2015 à 17h 42







JimmyG a écrit :



La fréquence d’échantillonnage. Il faut savoir qu’à partir de 42 KHz, le son est restitué de façon fidèle et lisse&nbsp; pour l’oreille. Il y a assez de samples par secondes pour donner cette impression de son continu, nature, clair, net et précis. Au délà, on ne sent pas la différence. Donc pourquoi 44.1 KHz alors ? Sans entrer dans le détail c’est à cause du format CD et ses 700 Mo, et il a bien fallu se mettre d’accord sur un chiffre pour définir combien de durée on pouvait mettre. C’est tout !



Et aussi: 44100 est divisible par 2, 3, 4, 5, 6, 7, 8, … ouvrant des possibilités pour les traitements informatiques et électroniques de ce format numérique, notamment en environnement à ressources limitées. Mais bon, les limites ont explosé depuis!


Le 24/03/2015 à 15h 24







jb a écrit :



Ce troll! Il faudrait encore pouvoir prouver que 24bits apporte qqch :)

Mais techniquement, 96kHz 16bits, c’est mieux que de la qualité CD.





Un peu comme les FPS dans les jeux, au-delà de 30, où est l’intérêt???







divide a écrit :



Ah et, le cerveau ne traite que les informations que lui fournissent les cils des oreilles, hein. On a pas de capteur de vibration dans le cerveau…





Vision très limitée des choses.

Un infrason, non capté par tes oreilles, te mettra plus sur tes gardes, en état d’alerte. C’est utile aux cinéma, et c’est utile lors de tremblements de terre.

Or, tu ne l’as peut-être pas entendu, c’est tout ton corps qui réagi au son. Bon, peut-être pas avec un casque.



Un ultrason, que tu n’entends pas vraiment, te dérange.



Expériences très sympas si tu en as l’occasion pour te montrer qu’on peut agir sur ta condition et tenter de provoquer chez toi des réactions sans que tu ne le saches.







bluevince a écrit :



Justement pas tout à fait : si une fréquence d’échantillonnage de 44.1 kHz permet de reconstruire parfaitement une fondamentale à 22kHz, elle ne permet pas de reconstruire correctement ses harmoniques





On peut l’illustrer avec le jeu “reliez les points”.

Sur 1 seconde, un son à 3kHz est reconstitué par 14 samples.

Une harmonique à 10kHz est reconstituée par 4 samples sur la même période. En 4 samples, une belle harmonique sinusoïdale devient en gros un beau signal triangulaire.



Un installation de qualité permet d’entendre carrément des instruments supplémentaires qui donnent une vraie profondeur/âme à la musique. Ca fait moins “soupe populaire” quoi.

Un signal de meilleure qualité améliore encore la présence je trouve.



Mais après, le retour au casque sur iPod est très cruel…


Le 19/03/2015 à 14h 35







HarmattanBlow a écrit :





Merci pour les éclaircissements.



Pour la longévité d’OpenGL, je pensais surtout aux applis utilisant peu de shaders (dans le genre de SweetHome3D, OpenOffice). Dans ces applis on privilégie la compatibilité et la maintenabilité de ces parties 3D.



“A super simple “hello, world” rendering a triangle app is about 600 (not a typo) lines of code in Vulkan”



Donc pour des dev comme moi qui utilisent OpenGL pour des features annexes, la simplicité et la robustesse de l’initialisation sont primordiales. Tant qu’OpenGL est là, dans ces cas là, il est privilégié (jusqu’à un équivalent de glut pour Vulkan)



Bref, c’est un sujet intéressant et presque surprenant face à la stagnation des performances de ces dernières années.


Le 19/03/2015 à 10h 44







nlougne a écrit :



En fait Mantle se met de côté pour être remplacé par Vulkan qui lui sera supporté par toutes l’industrie. Vulkan remplacera OpenGL, OpenGL ES et OpenCL.





Non, Vulkan n’est pas destiné dans l’immédiat à remplacer OpenGL, OpenGL ES et OpenCL.



Vulkan est pour la haute performance, au prix d’un plus grand boulot nécessaire pour les programmeurs.

De ce point de vue, Vulkan va en fait mettre en concurrence OpenGL et les moteurs tel que le source, Unreal, Unity qui vont partir sur un code path Vulkan au lieu d’OpenGL. Et là OpenGL a peu de chances de survivre dans ce contexte.



Ce que je crains, comme le dev aura à gérer lui même la mémoire et les cas d’erreurs, c’est qu’on revienne à la grande époque du début de DirectX: quand un jeu tourne, tout ton ordi est dédié au jeu. Basculer du jeu à autre chose était “périlleux”.

Sur tablette, c’est moins dérangeant puisque les applis sont totalement mise en sommeil, on peut se permettre de réinitialiser le GPU plus facilement. Sous Windows depuis Vista, réinitialiser le GPU est plus périlleux puisque Windows est toujours en mode 3D.

Vulkan sera donc à mon avis très bien pour harmoniser les dev entre consoles et tablettes, mais pour les ordis “classique”, cela risque d’être une régression (malgré l’amélioration des perfs).

Vulkan est aussi développé de façon à relancer la concurrence entre les moteurs 3D.

Vulkan permet de créer des drivers plus simples (pour la partie Vulkan), puisqu’on laisse la gestion mémoire au programmeur.



Enfin, pour les applis “bureau”, OpenGL restera bien plus simple à utiliser que Vulkan pour l’affichage 3D.







nlougne a écrit :



Mantle et Vulkan ne sont plus dépendant des drivers pour les performances, c’est le dév qui s’en occupe ( c’est bien et mauvais en même temps). Tout ceci a pour but de mettre en avant les APU de AMD qui eux savent utliser GPU/CPU en parfaite symbiose avec mémoire partagé.





Exactement. Les APU d’AMD mettent la partie CPU en berne pendant l’activité 3D (jusqu’à parfois descendre très bas dans les GHz pour laisser le GPU consommer toute l’énergie possible), une réharmonisation de la charge de travail CPU/GPU va certainement booster les APU en permettant au GPU de se saturer (ce qui n’est pas toujours le cas actuellement, contrairement à ce que l’on pourrait penser)



Même les iGPU Intel, qui profitent de turbo boost commandés par le TDP, pourront y trouver des perfs: si le CPU a moins à faire, il chauffe moins, et l’iGPU aura une plus grande part possible de TDP.



Par contre, il faut aussi s’attendre à une augmentation de la conso électrique, mais ça il en est rarement question…


Le 18/03/2015 à 21h 18







Winston67 a écrit :



oui oui bien sur mais l’idée était de pouvoir faire une install propre , sans le sempiternelle |$winold] , qui prend

&nbsp;pas mal de place&nbsp; ….



&nbsp;le winold, tu peux le purger. Sinon, tu fais l’upgrade vers 10, puis tu lui dis de se réinstaller…


Le 18/03/2015 à 13h 59







Winston67 a écrit :



Je regrette amèrement d’avoir pris une version MAJ de win8 , avoir une vraie version 8 ou 10 c’est quand même plus simple





Je suis à peu près dans le même cas. Je n’ai jamais réinstallé Windows 8.1 pour cette raison.

Voici ce que je tenterai quand je voudrai passer à 10 (j’attends d’abord d’être sûr que mon cache SSD fonctionne):




  • création d’une clé USB de réinstallation de Windows 8.1 avec les utilitaires Windows

  • réinstallation par la clé (ou par l’utilitaire de réinstallation propre intégré à Windows 8.1)

  • upgrade vers Windows 10.

    C’est censé fonctionner sans se casser la tête.


Le 18/03/2015 à 12h 56







Winston67 a écrit :



+1 , y a toujours un truc qui merdouille , jamais compris…



Perso je fais une installe basic de win7 (oem) puis win 8 (maj) et re win 8 avec supression de la partition de boot histoire de repartir à neuf , mais la si en plus faut rajouter win X





Je pense que tu pourras au pire installer 10 par dessus 7 directement si tu veux tout réinstaller.


Le 18/03/2015 à 10h 47







k43l a écrit :



J’ai le même soucis pour 8. J’ai une version boite de 7 et j’ai pris 8 via leur offre de mise à jour.

J’ai donc fait la mise à jour 7 à 8 sans soucis pour activer ma clé.

Lorsque j’ai réinstaller sur un autre disque dur l’OS Windows 8 ça n’a pas marché. Il fallait que j’installe 7 puis faire la mise à jour à 8 !





Pour passer d’un disque dur à l’autre, le mieux est d’utiliser l’utilitaire “dism” de microsoft et peut-être un slmgr pour réactiver. Sauf si tu passes à un disque plus petit ou que tu veux faire “propre”.


Le 18/03/2015 à 10h 17







charon.G a écrit :



tu sais sous les derniers Windows tu dois redémarrer juste si c’est un driver de carte mère ou de chipset la majorité des cas.

Le truc c’est que les installeurs la plupart du temps te disent de redémarrer alors que ce n’est pas nécessaire.





C’est clair, même quand j’ai réactivé mon SSD en tant que cache, ca a fonctionné immédiatement sans redémarrage.



Un truc très drôle d’ailleurs: quand j’ai changé le SSD de ma tablette, j’ai rallumé la tablette avec le nouveau SSD (vierge) et… Windows s’est affiché! Je n’avais pas totalement éteint, il était en veille mémoire. J’ai joué un peu minutes avec (basculement bureau, retour à l’affichage de Firefox avec l’explication de où ouvrir la tablette, retour sur un des mes PDF qui était affiché) avant de le faire planter. Ca m’a épaté comme Windows 8 travaille maintenant énormément en mémoire.


Le 18/03/2015 à 10h 12







KP2 a écrit :



Ils ont un sacré effort a fournir au niveau de la gestion de leur fichier de swap… J’ai jamais compris pourquoi ce fichier était utilisé meme quand la RAM était quasi vide.

Pour flinguer un disque, c’est le top ca…





Ca fait 40 ans qu’on a des systèmes à RAM virtuelle et swap.

T’inquiète, ils maîtrisent. Tous (Linux, Windows, BSD, OpenVMS, …). Ca ne va pas tuer ton disque.



Sous Linux, tu peux jouer avec le paramètre “swappiness” si tu veux augmenter/réduire l’utilisation auto du swap.


Le 18/03/2015 à 09h 59







KP2 a écrit :



Y’a 50 distribs differentes avec chacune une politique d’evolution differente, quelle distrib utilisais tu ?. Et quand tu dis “ne supportait plus mon portable”, ca veut dire quoi ? Y’a plus RIEN qui marchait ? Ca bootait meme plus ?





Plantage aléatoire au bout de quelques minutes à plusieurs heures. Parfois j’arrivais même à fonctionner toute une session sans que ça plante.

Du coup, difficile de dire “c’est bon c’est corrigé”. Certains le disaient (on avait un bug ouvert), du coup le bug était fermé, puis réouvert le lendemain.

De plus, le bug était très violent, pas de log, il fallait un kernel en mode debug pour avoir le kernel panic affiché et l’affichage ne marchait qu’en mode texte. Le bug semblait beaucoup plus rare en mode debug qu’en mode normal.

J’avais essayé de bidouiller en injectant d’autres données ACPI que les vraies de l’ordi mais j’ai plutôt échoué sur cette voie.



Message final pour clôturer le bug (en 2013): matériel trop vieux, abandon du bug.



Merci beaucoup la “communauté”.



C’est toute une ligne de HP/Compaq qui avaient le bug. C’est au niveau ACPI. Ca allait du portable pro comme le mien à des modèles plus commerciaux.



–&gt; C’est pas vraiment Linux qui a un bug, mais le BIOS. Windows s’en accomode très bien, pas Linux.



Je reconnais que même maintenant il y a du matériel qui n’est pas développé en prenant en compte les meilleures pratiques. Par exemple le NUC N2820 qui ne bootait pas Linux après l’installation car l’UEFI ne cherchait pas le bon fichier de démarrage. Il fallait mettre à jour le BIOS.

Les cartes WIFI USB (et mini pci-express, qui sont souvent des USB déguisées) ne marchent pas toute selon le n° de révision de la carte.



Mais sincèrement sous Windows 7 et 8, je ne me rappelle pas avoir eu un seul périphérique qui n’a pas fonctionné “out of the box”, sans même avoir installé le pilote du constructeur (que je ne met que si une fonctionnalité ne marche pas avec le pilote standard de toutes façons). Sous Linux, j’aime être en “stable”, mais je suis obligé par exemple de passer en “unstable” pour avoir le pilote Wifi (Intel 7260).



Désolé, ce n’est pas tout à fait “out of the box”, pour une carte qui a déjà 2 ans je crois.



Et j’ai aussi des périphérique (Webcam creative, tuner TNT) que Windows sais utiliser et que Linux n’a jamais su. Et même un modem 3G SFR Huawei que Windows sait faire fonctionner mais plus Linux (il a marché pourtant, mais il ne fonctionne plus maintenant ni sous Linux ni sous les nouveaux android, alors que le 4.0 le fait toujours fonctionner).



Je ne crois pas qu’il y ai de généralité dans ce domaine: un pilote bien écris sous Linux peut continuer à fonctionner, du moment que quelqu’un s’occupe de le porter de noyau à noyau, mais il peut aussi disparaître si le périphérique est trop peu distribué et qu’il n’y a plus de mainteneur.



De même Windows se traîne aussi de vieilles bouses dans ses pilotes, par exemple les vieilles imprimantes HP et Epson.


Le 17/03/2015 à 21h 08







hamtl a écrit :



processeur à 1 GHz au minimum, avec 1 ou 2 G. je n’ai jamais vu windows fluide sur ce genre de configuration, meme sur un pentium 4 a 3ghz c’est tres juste sans ajouts de logiciels lourds..

alors la si on installe ca sur un atome pourri avec 1g0 de Ram vaut pleurer..

&nbsp;





je suis sur une tablette atome 1go ram là.

les perfs sont très bonnes, mais sur tablette tu as tendance à ne pas trop te disperser.



par contre, après les dernières mise à jour, il reste 1.58go de libre juste avec&nbsp; Windows. Au moins c’est vendu sans crapware


Le 17/03/2015 à 21h 04







KP2 a écrit :



Ca fait quand meme un bout de temps que la quasi totalité du matos est reconnue sous linux. Faut arrêter avec le FUD…

De plus, là ou linux se démarque sérieusement de Windows est que le “vieux” matos est toujours aussi bien reconnu sous linux. Meme des pieces qui peuvent avoir 15 ans. Et meme parfois mieux que sous windows…&nbsp;&nbsp;





J’ai lâché linux car en 2012 il ne supportait plu mon portable de 2007. Qui tourne comme un charme sous Windows 8.1

bug soumis, réponse :matériel obsolète .


Le 17/03/2015 à 20h 59







nost4r a écrit :



Par contre les cartes wifi, c’est un peu comme les cartes graphiques, il faut quand même rechercher le dernier driver proposé par le fabricant pour avoir les meilleures performances, le wifi est très sensible aux drivers utilisés. Même sur portable, les cartes wifi c’est du plug and play, que ce soit au niveau hardware ou software.





d’expérience, je conseille de virer tout driver constructeur sous Windows s’il n’y en a pas le besoin. Si les pilotes ms suffisent, cela évite d’encombrer avec les bouses de panneau de contrôle dédiés, et parfois même des problèmes avec les fonctionnalités ‘avancées’


Le 17/03/2015 à 13h 26







Ksass`Peuk a écrit :



Si on ne veut pas voir la consommation exploser, il va falloir un algo diablement intelligent pour déterminer ce qui doit, ou ne doit pas, être compressé et quand (et bien entendu, cette heuristique, c’est encore de l’énergie qui va être bouffée). On a beau ne pas avoir une baisse de performances, la décompression n’est certainement pas gratuite.&nbsp;





Beaucoup de tablette sont déjà en Wimboot, et cela ne se voit pas ni en perf ni en autonomie.&nbsp; Ce que tu perd en proc, tu le gagnes sur l’accès disque. Et dans tous les cas, ton système ne passe pas sont temps à relire les DLL de windows, loin de là!



Ce qui est nouveau, c’est que les DLL soient recompressées. Le problème de wimboot, c’est bien que si Microsoft met à jour 1go du système, c’est 1go supplémentaire décompressé pendant que les anciennes données compressées subsistent sur la partition de restauration.

En gros, sur une tablette 16go, au 1er démarrage il te reste 5,7Go (partition de 5,5Go de restauration et 4Go mangés par Windows), après quelques heurees de Windows update, il te reste 3Go (testé justement hier soir)


Le 17/03/2015 à 13h 27







CrazyCaro a écrit :



Chuis d’accord que c’est pas terrible, mais si tu as un mdp assez long, avec maj, min & chiffres, tu peux arriver à un niveau de sécurité correct (pas optimal, mais correct).



Je reconnais cependant que y’a un certain nombre de sites qui te demandent un mdp limité en taille, et souvent aussi en type de caractères. Et là… <img data-src=" />





8 caractères maxi je crois. Il ne veulent pas qu’on le perde.


Le 16/03/2015 à 12h 58

Et pendant ce temps, le site collissimo.fr demande un mot de passe avec juste des chiffres et des lettres. Pas de caractère spécial, pas d’accent, pas d’espace, de soulignement. Chiffres et lettres!

Le 17/03/2015 à 09h 22







KP2 a écrit :



A mon avis, cet accord va donner des espèce de dérivés de pseudos jeux un peu nuls (genre des puzzle, des tictactoe aux couleurs des persos Nintendo) mais surement pas des portages de jeux existants ou de nouvelles versions de mario kart ou mario land…





C’est clair, pour le moment je pense même à autre chose: des petits jeux “compagnons” qui se synchronisent avec tes jeux 3DS/Wii U, par exemple via leur site internet.

Ces jeux apporteraient des fonctionnalités supplémentaires et bonus. Pourquoi pas un jeu mobile qui te donne des bonus sur la plupart des jeux Nintendo de la console (et surtout, des jeux que tu n’as pas…)



Je pense cela car je ne vois pas Nintendo prêt à trahir son système fermé: les consoles et jeux restent leur coeur de métier (et leur marge), et cet accord permettra d’essayer de ramener sur la console des casual du monde mobile.

Ce qui signifie en gros: pas de “vrai” jeu sur mobile, mais juste un hameçonnage.



C’est mon avis, mais qui prend les paris?


Le 16/03/2015 à 09h 17







js2082 a écrit :



C’est malheureux à dire mais, à l’heure actuelle, il n’y a pas vraiment d’alternative.

Le html 5 étant à la traine niveau optimisation a du mal à se placer sur le marché, et le reste de la concurrence est quasi-inexistante (silvelight?).





Je n’ai plus flash depuis des mois et ne m’en porte que mieux. Le peu de sites qui nécessitaient flash pour l’une ou l’autre des fonctionnalités diminue.



en fait, ce n’est pas la vidéo qui m’ennuie le plus, ce sont des fonctionnalités comme l’accès au clipboard pour le copier/coller et l’export Excel depuis une page web en Javascript. Seul flash semble permettre ce genre d’intégration à une appli web.


Le 15/03/2015 à 21h 57







Xaelias a écrit :



Perso j’ai cherché, pas au cours des quelques derniers mois j’avoue puisque changer mon ordi n’est pas mon objectif en ce moment. Perso j’avais pas trouvé un ordi avec une autonomie comparable, une dalle aussi bonne, un trackpad aussi bon, après CPU/Ram en général c’est pas le pb majeur.&nbsp;



C’est clair. Trouver de bons ordis est difficile, et surtout il est très difficile de se faire son opinion.

Là-dessus, les mac ont plusieurs avantages actuellement:





  • &nbsp;on les trouve dans tous les magasins. On peut toujours comparer un ordi à un mac en magasin, mais comparer tel Asus avec tel Samsung n’est pas toujours possible IRL. Et un Dell, c’est inimaginable.

  • ils sont toujours allumés: les autres marques, il faut souvent demander pour les allumer (ce qui empêche de se faire une idée sur le refroidissement de l’ordi d’ailleurs)

  • ils ont plein d’applis incluses pour faire une démo



    &nbsp;Maintenant, certains ordis font aussi bien que les macs. Sauf peut-être côté autonomie réelle, mais même pour l’affichage on trouve des ordis qui ont une image qui pète autant. Même moins cher d’ailleurs, notamment chez Samsung. Et la plupart font aussi mal aussi: indémontables, RAM soudée limitée à 4Go, batterie inamovible…



    Acheter une marque ou l’autre, c’est du kif. C’est un choix, à faire en toute connaissance de cause. Parce qu’à ce tarif là, l’ordi qu’on achète, c’est pas pour 6 mois!

    &nbsp;


Le 13/03/2015 à 13h 37







Commentaire_supprime a écrit :



Le NUC est à peine plus cher, nettement plus petit, un proco en 14 nm au lieu de 22, a autant de ports USB 3.0 mais un port TB de moins et pas de lecteur de carte SD XC, contrairement au Mac…

A votre avis, qui prend ses clients pour des nazes ?





Pas le même public.



Et si tu veux installer Windows, ton NUC il commence à chiffrer sérieusement.



Le NUC donne le choix, le Mac mini t’offre une solution clé en main.


Le 13/03/2015 à 11h 13







Commentaire_supprime a écrit :



D’où le fait que pour maintenir des coûts raisonnables, Intel vend ses NUC en format barebone. C’est l’utilisateur final qui rajoute la RAM et le HDD/SSD.





J’avais même évalué la possibilité de remplacer l’intérieur d’un portable par un NUC ou d’en “tablettiser” un.

Le problème, c’est ces connecteurs mis verticalement + le dissipateur de l’autre côté. Au final, ça fait plus tablette, mais plutôt parpaing.


Le 13/03/2015 à 11h 11







dematbreizh a écrit :



Je veux dire, pourquoi si peu de bidouilleurs sous Mac? peut-être à cause de ce genre de choix, ce qui du coup limite leur clientèle. Encore une fois, je ne vois pas en quoi une soudure est un plus commercial.





C’est un choix! Soit tu prends la machine qui a vraiment la classe en réunion ou chez le client, soit tu achètes une machine que tu pourras modifier par la suite au besoin.



Tant que les deux choix existent, je ne vois pas de problème. Je ne suis pas jaloux de ceux qui ont un mac. Et ils ne sont clairement pas jaloux de mes machines non plus. Nous n’avons pas les mêmes besoins/attentes.



La seule chose que je trouve énorme, c’est quand des constructeurs soudent les batteries. Je trouve que ca devrait être obligatoirement remplaçable sans retour SAV.


Le 13/03/2015 à 10h 48







kade a écrit :



C’est quelle tablette ?





Samsung XE700. C’est pas la prime jeunesse, mais j’en ai trouvé deux à 250€ chacune sur eBay. J’en suis plutôt content.

Tu la démontes avec tes ongles et une carte bleue.


Le 13/03/2015 à 10h 21







Lnely a écrit :



L’utilisateur Apple ne bidouille pas de toute façon, des qu’il a un soucis il va en apple store, pour la batterie, le ssd, gpu ou autre, Apple s’en occupe directement, donc que ce soit difficile à démonter ou non, on s’en fout un peu…

Une bonne chose finalement





Disons que certains s’en foutent, d’autres comptent dessus.



Par exemple, j’ai choisi ma tablette parce que je pouvais changer le SSD (pas la RAM, dommage…).



Résultat: pour 350€ j’ai une tablette (d’occasion) avec un SSD de 256Go. En plus, je peux y ajouter la 3G quand ça me chante ou changer le Wifi pour de 5GHz si ça me dit. La batterie est dispo sur ebay aussi.

Pour moi, c’est un des arguments principaux.


Le 13/03/2015 à 17h 00







brice.wernet a écrit :



De plus il me semble que la 4G couvre moins de surface par antenne, et moins de terminaux aussi.



J’écris n’importe quoi des fois. La 4G couvre potentiellement énormémement plus de terminaux. Par contre avec un trop grand nombre de terminaux elle n’a plus les performances commerciales annoncées. Le problème de portée était surtout dû au début à une mauvaise prise en compte de la norme (un peu trop souple, certains terminaux étaient trop rigides sur les bandes de fréquences)


Le 13/03/2015 à 16h 41







loulnux a écrit :



c’est juste un scandale de ne pas équiper directement les zones blanches en 4G ce qui du même coup résorberait la fracture des gens qui ne bénéficient pas d’une couverture terrestre à haut débit.

C’est très grave j’habite en campagne et c’est tout juste déjà s’il ne faudrait pas avoir des portables triple sim pour circuler sans déni de service et les gens éloignés un temps soit peu des NRA n’ont rien non plus pour surfer.





Pour équiper en 4G, il faut peut-être déjà que l’antenne puisse être connectée avec un bon débit?

De plus il me semble que la 4G couvre moins de surface par antenne, et moins de terminaux aussi.

Ensuite, le fait de demander simplement de la 2G, cela incite les opérateurs à peut-être recycler leur équipement 2G remplacé ailleurs par du 4G. Ca leur fait moins peur.



Enfin, comme tu le dis toi-même, la campagne n’est pas couverte correctement par tous les opérateurs simultanément. C’est couvert par “spots” (chez moi, c’est SFR qui couvre, quelques km plus loin c’est Orange et Bouygues)

–&gt; quand on se déplace, c’est assez terrible. Il faut avoir au moins 2 abonnements pour ne pas avoir de coupure. Et je pèse mes mots.


Le 12/03/2015 à 10h 57







Tumeconnais a écrit :



Personne ne va au japon, sauf les japonais <img data-src=" />

Sinon au niveaux du Canada ça marche bien?

Le mode hors ligne est vraiment un plus, et payer 79€ une carte a Garmin pour 10 jours de vacances, bof bof.



&nbsp; Pour l’écosse, j’ai téléchargé l’appli des campings ACSI et j’ai acheté la carte écosse & angleterre

pour 1,79€, j’avais un pseudo GPS sur la tablette. Au moins je pouvais planifier mes trajets.

Remarque, passé un certain moment en Ecosse, tu n’as plus de choix dans les routes, donc à part à savoir où tu en es, …

Et sur place ils ont un petit guide gratuit de quelques campings avec une grande carte, c’était tout de même mieux que sur la tablette.



Au final, ça a surtout servi au retour à savoir où on en était et comment contourner le méga bouchon par de petites rues quand à Londres on a découvert que l’orbitale + le périphérique était coupés pour travaux, à 2h du matin…