votre avatar

Ipernet

est avec nous depuis le 24 septembre 2006 ❤️

31 commentaires

Le 30/03/2017 à 22h 40

<img data-src=" />

Le 28/03/2017 à 20h 30

Un nouvel utilitaire a été mis en ligne (Windows10Upgrade9194.exe, version 1.4.9200.17364) alors que le précédent était Windows10Upgrade.exe, version 1.4.9200.17384 (numéro supérieur).



Bref il est urgent d’attendre.

Le 28/03/2017 à 19h 56

<img data-src=" />&nbsp;



github.com GitHubmode whitelist&nbsp;<img data-src=" />

Le 28/03/2017 à 19h 52







Xploited_Titan a écrit :



Rien du tout ici… :/ Deux tentatives, et à la fin, je suis toujours sur la version 1607 et il relance l’outil d’upgrade au dernier redémarrage…






 Idem.      






&nbsp;





moozkit a écrit :



encore mieux, le lien ne donne plus rien d’autre qu’un fichier JSON…





Du click baiting sur Nxi maintenant ? Me suis fait piégé.



Ou pire l’arrivée des fake news&nbsp;&nbsp;<img data-src=" />


Le 22/03/2017 à 15h 07

Je parle bien de la pression différentielle supportée par le fuselage dans son entier, un ordre de 10 (psi) sur un A380.



Le problème n’est pas ici par rapport à la résistance de la capsule mais ce qu’un problème de décompression pourrait être dans un tel système entre la capsule et le tube et / ou entre le tube et l’extérieur en étant dans la capsule, par rapport à ce qu’on peut expérimenter dans un avion.

Le 22/03/2017 à 12h 00

Dans un A380:



-&nbsp;Pression atmosphérique en altitude de croisière (12 500m) : ~200 hPa




  • Pression cabine “confort” à ce moment : ~800 hPa



    Un A380 peut supporter une pression différentielle de 10x.



    &nbsp;&nbsp;

    Dans un Hyperloop:



    &nbsp;-&nbsp;Pression atmosphérique dans le tube &nbsp;: ~2 hPa

    &nbsp;-&nbsp;Pression cabine &nbsp;: ~700hPa au mini (équivalent 3000m, pas très confort)



    Les ordres de grandeurs ne sont pas comparable.



    A cela il faut rajouter un tube à 2hPa dont la pression atmosphérique à l’extérieur est de 1000 hPa.

Le 01/03/2017 à 15h 48

Même réponse, ton Z3Compact est supporté.



CarbonRom&nbsp;aussi par exemple.

Le 01/03/2017 à 15h 44

Les drivers sont directement liés au noyau, indirectement à la distribution, ton Z3 &nbsp;est officiellement supporté par Sony sur le noyau 3.10 (branche Android 6.0), mais tu peux aussi remarqué qu’il l’est pour Android 7.0&nbsp;sur le même noyau, mais qu’il n’est pas “encore” rajouté dans la branche 7.1.



Les drivers propriétaires fournis par Qualcom (ainsi que les autres) n’ont que faire de la version d’Android, c’est d’ailleurs pourquoi ce sont les mêmes fournis par Sony pour Nougat et Marshmallow (même kernel 3.10 pour les deux).



En résumé, tu n’as pas besoin d’attendre une MAJ de Sony ni une MAJ LineageOS pour utiliser Android 7.1.



&nbsp;Tu peux par exemple tester CarbonRom&nbsp;ou faire un tour sur xda-developers.

Le 10/02/2017 à 16h 34

Il y a une vraie possibilité liée au chat qui se démarque d’autres solutions et qui n’a pas été (encore) abordée dans l’article, c’est le fait &nbsp;de pouvoir contacter quelqu’un de manière sécurisée sans avoir à préalablement connaitre son email ou son numéro de tel (comme pour Signal) et sans avoir besoin de savoir si la personne est déjà ou non sur Keybase.




En gros, vous pouvez envoyer une info sécurisée seulement en connaissant le twitter (ou autre) de la personne concernée, info uniquement lisible pour le propriétaire de cette identité, présent ou non sur Keybase.      






Si la personne n'est pas encore sur Keybase, l'info est stockée chiffrée sur les serveurs Keybase et uniquement déchiffrable par vous, l'envoyeur. Au moment où la personne rejoindra Keybase et validera cryptographiquement ce nickname twitter comme étant le sien, l'info stockée va automatiquement être rechiffrée pour n'être lisible que par ce nouvel utilisateur puis envoyée dans son chat Keybase.&nbsp;   

&nbsp;

Le 10/02/2017 à 16h 08







NonMais a écrit :



ça propose quoi? de stocker des fichiers sur leurs serveurs encryptés?



l’image avec le Chris là : comment ça dit que les infos sont vraies? là j’avoue ne pas comprendre du tout… la page html est envoyée cryptée, mais bon les infos viennent d’où?





Chaque fois que tu veux ajouter une identité à ton profil Keybase, comme ton compte twitter, un site web qui t’appartient, ton compte github ou FB… Keybase va te faire publier une preuve cryptographique liée à ton compte Keybase sur cette identité numérique (via un tweet spécifique, un ajout de champ DNS spécifique / un fichier à héberger, un gist public spécifique…) .



Cette preuve cryptographique, liée à ton compte Keybase sera ensuite vérifiée et validée par Keybase avant que cette identité ne soit publiée sur ton profil. Keybase revalide les différentes preuves (donc les identités que tu as revendiqué) fréquemment, et notamment lors d’une session de chat, afin de t’assurer que la personne avec laquelle tu parles à l’instant T possède bien les différentes identités qu’elle proclame.


Le 10/02/2017 à 15h 52







NonMais a écrit :



l’image avec le Chris là : comment ça dit que les infos sont vraies? là j’avoue ne pas comprendre du tout… la page html est envoyée cryptée, mais bon les infos viennent d’où?&nbsp;&nbsp;





Il est vrai que l’article pourrait être plus clair, un peu sur le modèle de cette explication :&nbsp;https://www.quora.com/What-is-Keybase-in-laymans-terms


Le 12/12/2016 à 19h 17

Dommage ta réaction, mais sur l’histoire du multi-poste, il y a deux versions indépendantes donc 2 posts différents.



On est aussi sur pci, pas sur Github, l’édition est difficile.



Enfin, il peut être utile se savoir compiler son noyau en dehors d’une approche pour apprendre, j’ai donné un cas réel au début.

Le 12/12/2016 à 19h 07

20 - Maintenant je “sais faire” mais au final je n’ai pas appris grand chose (que fais 8) ?)



Je passe donc en mode “manuel”, sans utiliser d’assistants fourni par ma distribution.



L’avantage :



a) C’est commun à tous les GNU/Linux

b) On voit un peu mieux ce qui se passe.



Je reprends &nbsp;à partir de 6) (les sources sont téléchargées, configurées par rapport au noyau existant).



&nbsp;7 - J’ajoute/je bricole des options :

&nbsp;



ip@ip-VirtualBox:~/linux-4.9$&nbsp;make menuconfig&nbsp;

&nbsp;

Notamment pour la démo je mets un nom custom à mon noyau:



General Setup &gt; Local Version &gt; “lfs”

&nbsp;

&nbsp;&nbsp;

8 - Je compile le kernel, mais avant :





  • Le code-source du Kernel est en C.&nbsp;

  • Je ne vais lancer ce Kernel que sur CETTE machine.

  • Et si je faisais une compilation optimisée par rapport aux instructions de mon CPU ? *



    *: le but n’est pas de débattre ici du % de perf en plus ou de l’utilité des options mais de montrer que comme n’importe quel autre software, le Kernel obéit aux mêmes possibilités de compilation.



    Ref:&nbsp;https://wiki.gentoo.org/wiki/GCC_optimization/fr

    http://www.linuxfromscratch.org/lfs/view/development/chapter08/kernel.html

    &nbsp;

    9 - J’utilise donc des drapeaux de compilations de GCC pour optimiser le binaire de mon noyau avec mon matos local:

    &nbsp;



    ip@ip-VirtualBox:/linux-4.9$&nbsp;CFLAGS=“-march=native -O3 -pipe -fomit-frame-pointer” make -j 4

    &nbsp;

    &nbsp;

    Je fais aussi une compilation en utilisant les 4 cores de mon cpu (-j 4)



    10 - Cette config de noyau a le support activé des modules et à peu près tout est compilé sous forme de modules.



    Je dois donc installer ces modules (fichiers *.ko compilés précedemment) sur mon système (pour qu’ils soient trouvable et utilisable par mon nouveau noyau).



    Si je ne le fais pas, c’est comme si vous essayer de démarrer votre voiture avec un moteur raccordé à rien.



    Vous n’êtes pas obligés d’avoir tout sous formes de modules. Par ex, les noyaux des serveurs dédiés OVH ont le support des modules désactivés, et rien n’est compilé sous forme de modules, mais en dur dans le noyau (le choix s’effectue dans l’utilitaire de configuration du noyau: menuconfig/xconfig par ex)







    ip@ip-VirtualBox:
    /linux-4.9\(&nbsp;make modules\_install

    &nbsp;

    &nbsp;

    &nbsp;Où sont t'ils installés ?&nbsp;



    &nbsp;



    ip@ip-VirtualBox:~/linux-4.9\)
    ls -lh /lib/modules/

    &nbsp;total &nbsp;24Kdrwxr-xr-x 6 root root 4,0K déc. &nbsp;12 19:03

    &nbsp; 4.4.0-31-genericdrwxr-xr-x 5 root root 4,0K déc. &nbsp;12 19:03

    &nbsp;4.4.0-47-genericdrwxr-xr-x 5 root root 4,0K déc. &nbsp;12 19:03

    &nbsp;4.4.0-51-genericdrwxr-xr-x 6 root root 4,0K déc. &nbsp;12 19:04

    &nbsp;4.4.0-53-genericdrwxr-xr-x 3 root root 4,0K déc. &nbsp;12 19:20

    &nbsp; 4.9.0lfsdrwxr-xr-x 3 root root 4,0K déc. &nbsp;12 19:23 4.9.0-monnoyau&nbsp;



    &gt;&nbsp; Un dossier par version de noyau installé.



    C’est pourquoi il est important en cas de même version mais de compilation différente de différencier les noyau via un suffix additionnel.





    11 - Je copie le binaire du noyau compilé dans /boot (où se trouvent les autres gérées par la distrib)





    ip@ip-VirtualBox:/linux-4.9$ &nbsp;sudo cp arch/x86/boot/bzImage /boot/vmlinuz-4.9.0lfs&nbsp;

    &nbsp;&nbsp;

    12 - J’installe (optionnellement) le System.map (fichiers de symbole utile en cas de debug du kernel)





    ip@ip-VirtualBox:
    /linux-4.9\(&nbsp;sudo cp System.map /boot/System.map-4.9.0lfs&nbsp;

    &nbsp;&nbsp;

    13 - Je sauvegarde la config, toujours utile (si pas intégré dans le kernel via l'option apropriée)

    &nbsp;



    ip@ip-VirtualBox:~/linux-4.9\)
    &nbsp;sudo cp .config /boot/.config-4.9.0lfs&nbsp;

    &nbsp;&nbsp;&nbsp;

    14 - Ce kernel utilise un initramfs comme les autres, alors je le génère :





    ip@ip-VirtualBox:/linux-4.9$&nbsp;sudo update-initramfs -c -k 4.9.0lfs&nbsp;

    &nbsp;&nbsp;&nbsp;



    15 - Il me reste à ajouter ce kernel au boot de la distribution.



    16 - Je détermine si le boot loader est géré par Grub ou Lilo (ici Grub ca Ubuntu 16.04)



    17 - J’ajoute une entrée Grub pour mon kernel.



    Là je dois revenir sur quelque chose spécifique à la distribution que j’utilise. Ma distrib (Ubuntu) impose une certaine façon de modifier la conf de Grub, je respecte donc cela.



    Mais sous Ubuntu, du moment que vous nommer correctement votre bzimage/Sytem.map/inirtd dans /boot, il y a une autodétection faite par&nbsp;/etc/grub.d/10_linux pour générer une nouvelle entrée, donc ici il vous suffit de &nbsp;:

    &nbsp;



    ip@ip-VirtualBox:
    /linux-4.9\(&nbsp;nano /etc/grub.d/99\_mylinux

    ip@ip-VirtualBox:~/linux-4.9\)
    &nbsp;sudo update-grub&nbsp;

    &nbsp;&nbsp;&nbsp;&nbsp;

    et de reboot.



    Voilà, vous avez fait à la main ce que “kernel-package” fait pour vous proprement, vous pouvez appendre un peu plus de chacune de ces étapes.



    &nbsp;&nbsp;

Le 12/12/2016 à 17h 51

18 - Je recommence à partir de 7 en ajoutant / supprimant des options du noyau





ip@ip-VirtualBox:~/linux-4.9$&nbsp;make menuconfig



19 - &nbsp;&nbsp;Je change en 8 le nom/version du noyau pour ne pas faire de conflit entre l’actuel nouveau et le “nouveau-nouveau” qui vont partager exactement le même numéro de release.

Le 12/12/2016 à 17h 42

Un mini-guide pour ceux qui chercherait un “Par où commencer ?” pour mettre un pieds dans la compilation du noyau.






 &nbsp;1. J'ai installé un Ubuntu 16.04 à jour dans VirtualBox et j'ai installé les "VirtualBox Additions"       






 2. Une fois dans Ubuntu, qu'avons-nous :       









ip@ip-VirtualBox:~/Downloads$ uname -a




 Linux ip-VirtualBox 4.4.0-53-generic #74-Ubuntu SMP Fri Dec 2 15:59:10 UTC 2016 x86\_64 x86\_64 x86\_64 GNU/Linux






 3. Je lis NextInpact : &nbsp;tiens un 4.9, j'ai bien envie de tester &lt;nouvelle feature&gt; de ce noyau sans attendre.       






 4. Je vais installer ce noyau en suivant la doc officielle Ubuntu       






 4.1 J'installe les outils de compilations nécessaires (si pas déjà installés)       






 &nbsp;



ip@ip-VirtualBox:~/Downloads$&nbsp;sudo apt-get install&nbsp;build-essential initramfs-tools fakeroot debconf-utils dpkg-dev debhelper bin86 kernel-package




 4.3 Je récupère les sources       

&nbsp;



ip@ip-VirtualBox:~/Downloads$&nbsp;cd /home/ip/Downloads/



 ip@ip-VirtualBox:~/Downloads$&nbsp;wgethttps://cdn.kernel.org/pub/linux/kernel/v4.x/linux-4.9.tar.xz  

ip@ip-VirtualBox:~/Downloads$ tar xf&nbsp;linux-4.9.tar.xz&nbsp;&nbsp;

ip@ip-VirtualBox:~/Downloads$&nbsp;cd linux-4.9/&nbsp;






 5. Je récupère la config de mon noyau actuel et la copie là où attendu pour la compilation du nouveau.       






 &nbsp;       





ip@ip-VirtualBox:~/linux-4.9$&nbsp;cp /boot/config-4.4.0-53-generic .config&nbsp;

&nbsp;6. J’upgrade la conf et je réponds par oui ou non pour activer de nouvelles fonctionnalités (je réponds tout par défaut pour l’exemple ici) :




 &nbsp;       





ip@ip-VirtualBox:~/linux-4.9$&nbsp;make oldconfig&nbsp;

&nbsp;



 &nbsp;       

&nbsp;7. Je veux pas y passer la journée j'utilise les 4 cores de mon CPU (en root)









ip@ip-VirtualBox:~/linux-4.9#&nbsp;echo “CONCURRENCY_LEVEL= 4” &gt;&gt; /etc/kernel-pkg.conf&nbsp;

&nbsp;



 &nbsp;8. Je lance la ligne de compilation officielle qui va faire un joli paquet cadeau (un package .deb) de ce nouveau noyau tel que configuré       

&nbsp;







ip@ip-VirtualBox:~/linux-4.9#&nbsp;make-kpkg –initrd –append-to-version=-monnoyau –revision=1.0 –rootcmd=fakeroot kernel_image kernel_headers&nbsp;

&nbsp;



 (20 min sur un Core i7-4770k)       






 9. A la fin du process, j'install (en root) le package automatiquement généré :       







ip@ip-VirtualBox:~/linux-4.9#&nbsp;dpkg -i ../linux-image-4.9.0-monnoyau_1.0_amd64.deb&nbsp;




 10. Là je fais attention, car Ubuntu va booter directement sur ce nouveau noyau.        






 &nbsp;Si mon nouveau kernel plante, il me faut un moyen simple de pouvoir booter sur le noyau Ubuntu normal, il faut donc que j'affiche le menu Grub au boot de ma machine, qui ne l'est pas par défaut.       






 &nbsp;(en root)       

&nbsp;





ip@ip-VirtualBox:~/linux-4.9#&nbsp;sudo nano /etc/default/grub&nbsp;

&nbsp;



 Je commente ces deux lignes :       









#GRUB_HIDDEN_TIMEOUT=0



&nbsp;#GRUB\_HIDDEN\_TIMEOUT\_QUIET=true



&nbsp;



 &nbsp;Je mets à jour Grub:       

&nbsp;





ip@ip-VirtualBox:~/linux-4.9#&nbsp;sudo update-grub&nbsp;

&nbsp;




 &nbsp;Je note que j'ai bien mon kernel dans la liste       







Generating grub configuration file …

&nbsp;Found linux image: /boot/vmlinuz-4.9.0-monnoyau

&nbsp;Found initrd image: /boot/initrd.img-4.9.0-monnoyau

&nbsp;Found linux image: /boot/vmlinuz-4.4.0-53-generic

&nbsp;Found initrd image: /boot/initrd.img-4.4.0-53-generic

&nbsp;Found linux image: /boot/vmlinuz-4.4.0-51-generic

&nbsp;Found initrd image: /boot/initrd.img-4.4.0-51-generic

&nbsp;Found linux image: /boot/vmlinuz-4.4.0-47-generic

&nbsp;Found initrd image: /boot/initrd.img-4.4.0-47-generic

&nbsp;Found linux image: /boot/vmlinuz-4.4.0-31-generic

&nbsp;Found initrd image: /boot/initrd.img-4.4.0-31-generic

&nbsp;



 &nbsp;       

Je reboot.



&nbsp;



 11. Ubuntu m'affiche maintenant le menu de démarrage. Je sélectionne "Ubuntu" (le kernel par défaut = celui que je viens d'installer)     



&nbsp;

&nbsp;



 12. Ubuntu démarre.        






 Si crash, je reboot le système à la main et peut choisir "Advanced Options" dans le menu de boot qui me propose la liste de tous les kernels installés. Je choisirais dans ce cas le kernel "normal" (Ubuntu 4.4.0-53&nbsp;qui marche bien pour recommencer ma compilation et fixer ce pourquoi mon nouveau kernel ne marche pas (généralement une option manquante).       

&nbsp;



&nbsp;



 13. Il se trouve que Ubuntu démarre normalement       





&nbsp;



 14. Je suis bien sur mon nouveau noyau :       





ip@ip-VirtualBox:~/Downloads$&nbsp;uname -a&nbsp;



 Linux ip-VirtualBox&nbsp;4.9.0-monnoyau&nbsp;#1 SMP Mon Dec 12 17:19:10 UTC 2016 x86\_64 x86\_64 x86\_64 GNU/Linux



&nbsp;

&nbsp;



 15. Je test que tout marche bien et si OK je peux recacher le menu Grub.       






 Est ce que tout marche ici ?        






 Non, généralement les drivers "tierces partie" (nvidia...) qui ont été compilés sur le noyau précédent peuvent ne pas avoir été chargés (car incompatible ou tout simplement non installés avec la nouvelle version).        






 Ici c'est le cas pour les "VirtualBox Additions" qui ont été installés (compilés) avec Ubuntu-4.4.0-53.        






 Ubuntu a bien démarré, mais&nbsp;je ne peux plus par exemple "copier coller" depuis la VM sur mon host, et j'ai une erreur liées au service VBox au démarrage.       






 Je dois ré-installer ces drivers. Mais sont-ils compatible avec ce tout dernier noyau ?       






 Généralement non, souvent le cas avec les derniers Nvidia (il faut attendre, parfois de qq jours à plusieurs semaines...)       






 Et concernant mon cas précis ?       






 Eh bien en essayant de réinstaller les&nbsp;"VirtualBox Additions", erreur à la compilation.       






 Mais j'utilisais VirtualBox 5.0.28. Je shutdown, j'update Vbox vers 5.0.30, je reboot Ubuntu, j'insére le CD des addons (version 5.0.30 du coup), et là la compilation fonctionne, ils sont compatibles.       






 Je reboot. Tout remarche comme avant sur mon noyau de test.       








 &nbsp;17. Je suis maintenant responsable de mettre à jour mon noyau (je suis "hors cycle distrib" sur celui-ci).       






 &nbsp;

Le 12/12/2016 à 16h 13

Je pense que le plus raisonnable est de commencer par la doc officielle de ta distrib puis ensuite une fois que tout marche comme tu veux, refaire la même chose non pas en utilisant les outils de ta distrib mais uniquement ce qui est commun à tous les GNU/Linux (par exemple en suivant le guide LFS)

&nbsp;

Ubuntu :&nbsphttps://doc.ubuntu-fr.org/tutoriel/comment_compiler_un_kernel_de_kernel.org

&nbsp;

Debian :&nbsphttps://www.debian.org/releases/stable/i386/ch08s06.html.en



LFS :&nbsp;



http://www.linuxfromscratch.org/lfs/view/development/chapter08/kernel.html

Le 12/12/2016 à 15h 50

C’est intéressant cette “peur” lié à la compilation du noyau. &nbsp;Je l’ai souvent constaté autours de moi, même avec des personnes pourtant à l’aise dans l’administration de systèmes GNU/Linux.



Cette appréhension est encore pire quand il n’y a pas d’accès physique à la machine (elle en deviendrait presque paralysante). Mais ça fait longtemps que cette appréhension n’est pas raisonnable (chez OVH avec des serveurs dédiés par ex: netboot réseau, rescue mode, kvm…)



La possibilité de crasher totalement le système et de devoir “formater” est infime. Il faudrait pour cela au moins arriver à corrompre son système de fichiers (ou son RAID)&nbsp;à cause d’un mauvais noyau. Ca arrive, mais généralement parce que &nbsp;vous l’avez vraiment cherché. Dans tout le reste des cas, même si vous terminez sur un kernel panic, même si vous n’avez plus un seul kernel installé fonctionnel (parce que vous avez été trop confiant), le fait que le kernel c’est le plus souvent un seul fichier sur votre disque fait que vous serez toujours sauver pour en restorer un autre (celui de la distrib, ou un “huge” kernel qui a tout d’activer) via un live-cd, une fonctionnalité “netboot” ou “rescue” de votre fournisseur.

&nbsp;

Mais ici on parle généralement de “mettre à jour” son noyau, et la base minimum est toujours de partir d’une configuration fonctionnelle (généralement celle du noyau en cours), d’upgrader cette configuration pour activer ou non de nouvelles fonctionnalités, de vérifier si il n’y a pas de “drop” de support quelconque, de compiler, d’installer ce nouveau noyau supplémentaire non pas en remplaçant l’existant mais comme un choix supplémentaire possible lors du boot. A partir de là vous avez 10 chances sur 10 que tout fonctionne normalement.



Bien sûr, dans 99% des cas vous n’aurez pas besoin d’avoir un noyau personnalisé. Mais il arrive que cela soit nécessaire, parfois :





  • Quand Docker s’est popularisé, les kernel “made-in-ovh” n’avait pas certaines options du noyau activées. Donc soit on passait sur le noyau officiel de la distrib (si il n’était pas trop vieux), soit sur un noyau custom.

    &nbsp;

  • Une faille urgente qui ne peut pas attendre une arrivée dans un dépot.

    &nbsp;

  • Pour réduire au maximum la surface d’attque de votre noyau (i.e un noyau qui ne supporte que ce dont vous avez besoin et pas une feature de plus).

    &nbsp;

  • Pour apprendre

    &nbsp;

    Enfin, si vous utilisez une distribution plutôt populaire (Debian, Ubuntu), &nbsp;les assistants de compilation de noyau (kernel-package) vous permette de gérér tous les noyaux de vos envies comme n’importe quel package.&nbsp;



    Bref, si vous avez envie et que vous avez un peu de temps, j’invite le maximum d’entre vous à sauter ce premier pas. Au pire utilisez une VM et vous verrez comment compiler un noyau c’est simple et instructif :)

Le 13/10/2016 à 16h 31

Pas d’accord avec les articles généralistes sur la politique.



Les articles de fond de Marc sur le droit et le numérique, les débats à l’assemblée, les interviews des politiques sur le numérique etc… : totalement legit.



Pour le reste j’ai déjà mes sources d’info, et elles sont nombreuses, et elles me demandent déjà assez de temps de cerveau.

&nbsp;

Quel est le rapport avec le numérique ici ? Pourquoi cet article ici, quel intérêt, quelle différentiation ?



&nbsp;

Le 04/11/2015 à 23h 31

Il est &nbsp;nécessaire de downgrade xorg pour faire fonctionner le driver NVIDIA sur F23. cf&nbsphttp://rglinuxtech.com/?p=1598.&nbsp;

Le 04/11/2015 à 14h 58

Précisions utiles en effet, merci!

Le 04/11/2015 à 14h 32

Installée depuis hier suite à une Debian testing à nouveau brickée, il manque quelques packages compatibles avec le kernel 4.2.3, notamment les drivers nvidia (donc sous Nouveau pour le moment en attendant une update nécessaire de Nvidia pour ce kernel).



Idem le package “kmod-wl” pour certains WIFI Broadcom n’est pas encore dispo donc il faut bidouiller un peu.



Sinon c’est ok sur mon vieux matos (Gnome, Vostro 1720)



&nbsp;

Le 10/09/2015 à 10h 57

En fait il s’agit plus que de Edge/VP9 ici, peut etre un mot sur&nbsphttp://www.phoronix.com/scan.php?page=news_item&px=Alliance-Open-Media pourrait compléter la news ?

Le 28/02/2014 à 17h 02







DarKCallistO a écrit :



Évidement qu’il y aura une commission sur les transaction,tu met a disposition du matériel pour validé chacune d’entre elles,le minage de bitcoins est utile pour faire fonctionner un réseau de paiement sécurisé. Le minage sera toujours nécessaire même après l’émission du dernier bitcoin,sinon la crypto-monnaie ne circule plus







De la même façon qu’actuellement,en se basant sur la puissance du hashrate disponible pour validé les transaction,quand au montant,elle sera calculer en bitcoin,donc avec la valeur qu’elle aura après le dernier bitcoin émis.





Copain <img data-src=" />







Si je comprends bien, aujourd’hui le minage est requis pour valider les transactions, et ce minage est payé par les bitcoins restant à distribuer.



Le jour où il n’y a plus de bitcoin restants, la rémunération se fera par un % sur les transactions effectuées.



Du coup est ce que la monnaie ne va pas perdre de son intérêt voir s’écrouler dès ce fameux jour où il deviendra “taxé” de faire une transaction avec celle-ci ? Car qu’est ce qui empêche qu’à ce moment apparaisse une nouvelle monnaie repartant dans le schéma initial (rémunération en monnaie restante à distribuer) ? Dans ce cas plus personne ne voudrait de l’ancienne monnaie car taxée =&gt; moins de monde pour miner =&gt; elle ne circule plus =&gt; vos “avoirs” dans cette monnaie ne servent plus à rien car ils ne peuvent circuler.





Le 10/09/2013 à 13h 22

PCI, déjà je ne comprends pas pourquoi en 2013 avec un site comme PCI on a un flux en 43 en qualité 360p.



Et désolé au niveau contenu je ne suis pas dans la cible en fait, je pensais trouver une émission plus “technique”, là on me parle encore de politique, de tribunal, de jurisprudence et de pédopornographie sur un sujet déjà traité et loin d’être interessant à mes yeux par rapport à l’actualité récente (nsa/snowden/ par ex.)

Le 20/08/2013 à 09h 23

vous croyez qu’une femme sait quelque chose ? <img data-src=" />

Le 30/07/2013 à 09h 55



Cela pourrait sous-entendre que Nokia lui-même pourrait prendre certaines choses en main, par exemple en poussant certains développeurs à proposer leurs applications sur la boutique de Windows Phone.



Euh, c’est déjà le cas depuis un certain temps ça. Nokia avait d’ailleurs présenté un certain nombre de nouvelles apps quand ils ont annoncé les 820 et 920. Nouvelles apps qui avaient été développées avec le SDK WP reçu en avant-première par quelques développeurs triés sur le volet.

Le 06/06/2013 à 20h 18

Mon retour perso est que j’estime que le service que me rend PCi dans ma vie numérique quotidienne équivaut à peu près à 13 du service que me rend mon abo Spotify (le premier service que j’ai trouvé “fair” de payer de manière récurrente).



J’ai donc pris un abo à 3.5euros que je pense garder quelques années.








Le 06/05/2013 à 10h 09

Personnellement:



Posts sponsorisés ? Ne me dérange pas, je peux toujours choisir ce que je veux lire si les posts sponsorisés sont bien indiqués (genre avec un icône)



Format de pub plus intrusif ? Je laisse adblock, je ne supporte plus la moindre pub.



PCInpact en partie payant ? Oui, car bizarrement ça me ferait sauter le pas pour reprendre un abo car cela me “forcerait” à le prendre. Là je peux laisser adblock alors je le laisse et j’ai accès aux même contenus. Si une partie des contenus devient payant, sachant que vous êtes ma référence de news, je n’accepterai pas de ne plus y avoir accès (habitude toussa) donc je paierai sans problème, surtout pour le prix raisonnable demandé.

Je paie bien un spotify premium à 10 euros par mois depuis 2 ans au moins que j’utilise très peu par rapport au temps de lecture “pcinpact”…



Pourquoi pas prendre un abo “comme ça”? J’ai pris un abo 2ans à la sortie pour “aider”, je n’ai pas renouvelé car j’avais au final la même chose gratuitement et je ne suis pas assez impliqué dans la communauté pour payer par “solidarité”.

Le 21/08/2012 à 16h 23







TBirdTheYuri a écrit :



A 30ko/s je me demande bien qui utilise encore ce service pour télécharger des vidéos ou des albums… Il est tout juste bon à partager des fichiers PDF ou quelques photos. Mon propre serveur est juste quatre fois plus performant, avec une simple ligne DSL basique.



Un film de bonne qualité faut compter 15 à 20 heures, en espérant que ça ne coupe pas au milieu (pas de reprise en milieu de fichier)







Je confirme le DL à 30ko/s par sec … en utilisateur free. Pour avoir testé pas plus tard qu’hier soir avec un compte payant, j’ai atteint 7 mo/s sur 3 fichiers en parallèle <img data-src=" /> depuis une fibre numéricable 100mb. Et c’est resté stable sur 20 fichiers (~4go).