Il n’y a qu’une vision du salaire à vie qui propose de ne le verser qu’à partir de la majorité. En réalité, salaire à vie et revenu inconditionnel ne sont pas incompatibles : l’un est un financement, l’autre est une institution qui sous-entend le salaire à vie.
L’idée du salaire à vie, c’est que chaque être humain a droit à la vie et donc aux moyens de survie. Donc les bébés aussi. Même si, techniquement, ce sont les parents qui utiliseront le revenu du gamin.
Et comme ça a été dit, une idée est que tout le monde travaille (fournit un travail), même la personne qui fait le ménage chez elle ou qui nourrit le chat de son voisin quand il est en vacances.
Yep, c’est sûr. Bon j’avoue, ya une grosse marge entre mon Sandisk de l’automne dernier et mon Samsung 830Series d’il y a quatre ans… Le dernier est bien meilleur, mon frère avait investit :p
Le
01/07/2016 à
15h
23
Charly32 a écrit :
Entrée et milieu de gamme (pour moi le 850 Evo c’est du milieu de gamme).
Si le 850EVO est pour toi le milieu de gamme, beaucoup de gens visent le bas de gamme :) (Ouiiii, je sais, le haut de gamme n’est plus sur SATA :p )
Le
01/07/2016 à
15h
22
En effet là ils parlent du SSD tout-public. Si tu regardes les SSD en PCI-E, très haut de gamme, avec des débits au-delà du Go/s… Non, ça n’a pas baissé.
Et regarder la performance d’un SSD est très difficile : perfs aux petits fichiers, gros fichiers, tout cela peut énormément varier d’un SSD à l’autre. En parlant des SSDs en PCI-E, ils sont souvent plus lent que ceux en SATA pour les petits fichiers… Eh ouai, ça paye le RAID on-chip :p
Le
01/07/2016 à
15h
19
Mais vu les débits avec cache et la rareté du remplissage du cache… On y gagne sur toute la ligne.
Côté endurance, il a été montré il y a peu qu’en fait, les SSDs sont iiiiiiiiincroyablement plus endurants à l’utilisation que ce qui était prévu par les fabricants à l’origine. (je retrouve pas l’étude, désolé)
Pas quelques, une au maximum :) Les gtx9 (je pense à la 960) ont été mal appréciées.
Le
01/07/2016 à
10h
16
Ils ont peut-être fait un effort cette année, alors, mais ce n’était pas le cas l’an dernier (les FounderEdition n’existaient pas ?). Tout le monde m’a conseillé de prendre une carte MSI et non la carte de base, qui était apparemment une daube.
Le
01/07/2016 à
10h
08
" />
Le
01/07/2016 à
10h
07
On parle d’un problème d’alimentation, qui est dû comme quelqu’un l’a précisé dans un autre comm’ au fait que le modèle de référence, c’est de la merde, autant chez AMD que NVidia. Le problème n’est pas inhérent à la puce elle-même.
Le
30/06/2016 à
11h
15
C’est parce que l’hiver a duré jusque tard, Industriality doit être une marmotte, il s’est réveillé la semaine dernière.
Le
30/06/2016 à
11h
14
Pas de bruit chez NVidia ? C’est parce que tu n’achètes pas le modèle de référence… Et parce que AMD sait que les gens attendront les modèles brandés et n’achèteront probablement pas (ou peu) le modèle de base qui est présenté ici.
Le
30/06/2016 à
11h
13
Woooooo, du calme.
AMD a(vait) un retard violent à rattraper côté consommation/chauffe. Là, ils s’alignent sur les modèles de l’an dernier voire presque ceux de cette année de NVidia. C’est juste exceptionnel de passer de 480w de consommation en pic à 230… et de 270w de TdP à 150w.
Ensuite, côté perfs… Bah chais pas, pour le prix, je ne suis pas déçu.
Chauffe ? Bruit ? Comme ça a été dit par FREDOM1989, c’est le modèle de référence. Perso j’attends le modèle MSI, bien refroidi, hypra-silencieux et overclocké. Ils savent faire des miracles. (je pense à la gtx960 de référence, qui est moisie, et à ma gtx960-MSI, que je n’entends jamais \o/)
À c’point là ? o.O Niveau isolation haute fréquence ?
Mais oui effectivement, côté bruit/refroidissement, les commentaires sont très négatifs alors que… C’est un modèle de réf… Merde quoi, même chez NVidia c’est de la merde " />
Le
01/07/2016 à
09h
59
Moins de perfs, plus cher etc… (par contre côté conso…" />)
Le
01/07/2016 à
09h
57
Vous attendiez une carte graphique exceptionnelle niveau perfs de la part d’AMD, alors qu’ils ont clairement annoncé se concentrer sur le low-end.
Ensuite, ils avaient plusieurs générations de retard… Là, on peut considérer qu’ils n’en ont qu’une demie. Perso j’attends les CPU, si l’évolution est aussi flagrante que pour leurs GPUs, ils écraseront Intel. Et pareil pour la génération Vega des prochains GPU.
Le
29/06/2016 à
15h
55
Pas tant que ça. Au moins, AMD se met (à peu près) au niveau de NVidia… Et ça faisait longtemps qu’on attendait ça.
Là je suis à peu près sûr que ma prochaine CG (après ma gtx960 2Go MSI de l’été dernier) sera une AMD, dans deux ans je pense.
Hmbon, j’ai surestimé la désintégration des météoroïdes dans l’atmosphère, là c’est un peu trop gros pour que ce soit sans danger ^^
Le
01/07/2016 à
07h
48
Exactement, on va envoyer à Rosetta toutes les instructions, dont “envoie en permanence les mesures”. On va les recevoir au bout de quelques heures, alors que Rosetta aura fini d’émettre, mais pas grave, on aura toutes les mesures ;)
Dites, chez NextInpact, ce serait cool de mettre en place un système de “+1” aux commentaires pour plussoyer les explications des gens :)
Le
01/07/2016 à
07h
46
Ça va, c’est pas une “grosse” comète”, juste quelques kilomètres de diamètre. Elle se désintégrera en bonne partie avant de faire un petit cratère sur Terre, ça fera de l’animation et une belle étoile filante ;)
Je suis d’accord, mais je trouve ça proprement hallucinant que Toshiba n’ait eu aucune communication autour de ça, et qu’on se retrouve à aduler Samsung pour ce truc (Même si c’est effectivement un prodige technologique).
Le
03/06/2016 à
10h
08
Et un petit article sur la standardisation de tels SSDs BGA…
Effectivement, là c’est compliqué… Et c’est justement pour ça qu’on en parle ^^
Je répondais surtout à AlainEtCo à propos des politiques (ou des acteurs, PDGs de multinat, etc) : La question ne se serait même pas posée pour, mettons, Valls ou Johnny Hallyday. Dans leur cas, le “retour à zéro” n’existe pas de base, et bien heureusement.
Quant à être une personne publique et avoir droit à sa vie privée… Oui, bien sûr, dans certaines mesures. Mais (malheureusement ? heureusement ?) ce n’est pas le cas dans le monde d’aujourd’hui.
Le
31/05/2016 à
09h
10
Comme je le rappelais justement hier, il ne faut pas oublier de faire la distinction entre personne publique (qui a pris la responsabilité que son nom soit affiché et connu de tous) et personne “privée” qui, elle, n’a pas pris cette décision. Une personne privée ne va pas être suivie de papparazi (et peut je pense porter plainte pour atteinte à la vie privée), une personne publique (politiques dont tu parles), non.
Même réponse qu’au dessus : là, ce disque n’a plus trop de sens pour un disque système… Les procos limitent déjà. Au hasard, je pense que tu ne diviseras pas ton temps de boot par plus que 1.5 par rapport à un ssd 3 fois moins cher ^^
Le
30/05/2016 à
17h
52
Ah il y a certes une quantité incroyable d’usages. Mais oui, pour un usage domestique peu d’utilité, nos processeurs commencent parfois à limiter maintenant… Dire qu’avant c’était le port usb ou le disque qui limitait…
Pour de la vidéo… Là faut faire attention au cache du disque. Là c’est de la MLC, c’est certainement mieux que de la TLC :)
Le
30/05/2016 à
10h
22
Ah non :)
Pour la bureautique tu n’as pas besoin d’autant de perfs, achète un Sandisk, 128go pour 50€, ou un Samsung un petit peu plus cher ^^
Ah moi je sais de quand elle date, j’ai réussi (enfin ! j’ai eu du mal vu la stabilité et la solidité face aux tortures qu’on peut lui infliger) à cramer mon ancienne installation en supprimant malencontreusement les bases de données de paquets.
Le meilleur exemple de la stabilité de cette distro est que ma nouvelle installation est chiffrée + utilise LVM, avec les paramètres de base, et que c’est incroyablement fonctionnel.
Très régulièrement, j’ai des problème. Il n’y a pas 1 mois, mise à jour ou que sais-je (Ubuntu Gnome edition): écran noir au démarrage, rien, nada… Je démarre sur un noyau précédent, ça marche … " />
Régulièrement, je fais un “alt+f2, r” pour relancer gnome car j’ai des problèmes d’affichage…
Et ça c’est que pour la partie graphique. Je ne parle pas des programmes qui plantent régulièrement (programme lié à l’OS/bureau comme Kate ou Nautilus).
Change de distro. Ubuntu est la distro avec laquelle j’ai eu le plus de problèmes de stabilité (même avec une utilisation classique). Linux Mint est largement meilleure, et je suis sous Manjaro depuis 2 ans et demie sans avoir de quoi me plaindre !
Un rpm sur Fedora, plus un deb pour Debian, qui sera peut être ou peut-être pas compatible avec Ubuntu, et je ne parle même pas des distribution plus rares ou des problèmes si on veut plusieurs versions d’un même logiciel. Un développeur ne peut pas gérer toutes les distributions.
Certes tant que l’on reste dans les paquets officiels de sa distribution tout va bien, mais une distribution ne peut pas non plus maintenir a jour le packaging de tous les logiciels existants.
Justement, un développeur ne se soucie à peu près jamais de la destribution et du packaging de son logiciel. Tu fais ton code, dans ton Readme tu dis “faites ./configure && make pour compiler avec comme argument le chemin vers le dossier de librairies et le dossier de données (souvent /usr/share/le_logiciel)” et basta.
Après, c’est bien gentil de dire que “ya plein de distros c’est chiant” mais au fond, elles sont organisées pareil. /usr/bin, /etc pour la config, /usr/share pour les données. Et avec autotools, make install te fait direct l’arborescence de ton logiciel.
Du coup, la création de paquets revient quasi uniquement (d’expérience) à rattraper les erreurs des développeurs.
La seule incompatibilité entre Ubuntu et Debian (comme tu l’as noté) n’est pas due aux paquets eux-mêmes. Elle est due aux imbéciles de maintencurs d’Ubuntu qui ont cru intelligent de prendre le même format de paquets, à peu près les mêmes bases de données, mais EN CHANGEANT LE NOM DES PAQUETS DE LIBRAIRIES. Du coup un paquet Debian ne retrouve plus ses petits. Bon et aussi au fait que Apt-Get, c’est en carton pas solide.
Le
26/04/2016 à
14h
18
RaoulC a écrit :
Ya pas un concept similaire chez le manchot?" />
Comme dossier pour mettre les préférences des logiciels ?
En fait dès qu’un nom de fichier commence par un point “.”, il est caché par les explorateurs de fichiers.
Donc en fait, dans ton dossier utilisateur tu as plein de dossiers
“.mozilla, .cache, .steam, .thunderbird, .gnupg”. Et tu as le dossier .config, où les logiciels peuvent aussi stocker des préférences.
Tu as aussi le dossier .local, mais j’ai jamais compris son intérêt par rapport à .config.
Le
26/04/2016 à
14h
15
J’aime vivre dangereusement " />
Et “killall -u salamandar && umount /home” est plus rapide que de lancer un live usb ;)
Le
26/04/2016 à
13h
47
ActionFighter a écrit :
" />
En interface graphique ?
Dans ce cas, perso, je passe en root mais en shell ou par chroot sur un live USB, ça suffit largement. Parce qu’autoriser une session graphique en root c’est quand même moyen " />
Après, si tu sais ce que tu fais et que tu es le seul user sur ton pc, pourquoi pas.
Patapé patapé " />
Je reste en shell tant que je peux, mais j’aime pas redimensionner mes partitions en pas-graphique. Donc je lance cinnamon et GParted.
En vrai, c’est mon manque de connaissances sur certains points qui me poussent à startx en root ^^ mais je m’y connais suffisamment pour pas risquer mon système.
Le
26/04/2016 à
13h
39
+1
Et oui le développeur fait rarement du packaging, à part pour des raisons de tests.
Et si le packaging du logiciel est trop compliqué, c’est certainement qu’il est mal développé (gros yeux vers QtiPlot, bordel…).
C’est pour ça que quand je vois des projets qui embarquent leurs dépendances dans leur code source, je pète un câble. Oui ça fait un peu de boulot en plus pour vérifier que ça tourne avec la nouvelle version de la lib, mais tout le monde en profitera. Et le fait qu’il y ait une floppée de distributions n’y change rien. Tu vis dans un écosystème avec plein de projets, plein de librairies, faut faire avec.
Le
26/04/2016 à
13h
30
Jvois pas le problème, je le fais quand ma session est en carafe ou quand je veux bidouiller ma partition home " />
Mais bon, je sais ce que je fais (enfin plus ou moins), et je sais ce que je risque :p
Le
26/04/2016 à
13h
17
C’est ce que je disais : la nécessité des droits root est une critique acceptable de Linux, dans le sens où c’est un vrai problème.
Après ça a de vrais avantages, mais peu pour un ordinateur personnel (avec un seul utilisateur). D’où l’existence de sudo.
Pour les librairies et les dépendances, je suis à moitié d’accord avec toi.
En effet, ça impose un travail d’intégration à chaque distrib.
Mais si le développeur est clair sur les besoin de son logiciel (simple liste des dépendances + système de build transparent (c’est déjà le cas) + “comment dire au système de build les chemins vers les libs et include” (c’est peut-être là qu’il faut un peu de boulot, mais pas tant que ça si tu utilises les systèmes de build classiques (autotools, cmake, etc))), le seul travail à faire est du côté du mainteneur de la distrib, et ce n’est pas compliqué.
Exemple, j’ai écrit quelques PKGBUILDs pour ArchLinux, dans le pire des cas j’ai pris 20 minutes à écrire le paquet + tout vérifier.
Le
26/04/2016 à
12h
51
C’est faisable certes, mais pas les paquets précompilés qui contiennent des références à /usr/lib et /usr/share.
Et ce n’est pas la façon de faire habituelle, ce n’est pas user-friendly de le faire :)
Après, ya les paquets xdg-apps/snappy(beurk)/Appimage qui commencent à arriver et qui changeront peut-être ça. Mais on pert un peu de l’“essence” de la gestion des paquets et des librairies partagées sous Linux qui est clairement un avantage !
Le
26/04/2016 à
12h
41
J’vois pas trop alors. Enfin si, tu peux à la limite donner les droits root au binaire apt-get / pacman, avec les droits SUID / GUID. Mais c’est risqué " />
Le
26/04/2016 à
12h
30
Tu veux dire, en permettant aux utilisateurs de jouer avec le système ? On perd l’avantage de la sûreté des permissions POSIX ;)
981 commentaires
Le revenu de base s’invite (à nouveau) à l’Assemblée nationale
28/06/2016
Le 02/07/2016 à 17h 02
Il n’y a qu’une vision du salaire à vie qui propose de ne le verser qu’à partir de la majorité. En réalité, salaire à vie et revenu inconditionnel ne sont pas incompatibles : l’un est un financement, l’autre est une institution qui sous-entend le salaire à vie.
L’idée du salaire à vie, c’est que chaque être humain a droit à la vie et donc aux moyens de survie. Donc les bébés aussi. Même si, techniquement, ce sont les parents qui utiliseront le revenu du gamin.
Et comme ça a été dit, une idée est que tout le monde travaille (fournit un travail), même la personne qui fait le ménage chez elle ou qui nourrit le chat de son voisin quand il est en vacances.
SSD : 18 mois d’évolution des tarifs passés à la loupe
01/07/2016
Le 01/07/2016 à 15h 29
Yep, c’est sûr. Bon j’avoue, ya une grosse marge entre mon Sandisk de l’automne dernier et mon Samsung 830Series d’il y a quatre ans… Le dernier est bien meilleur, mon frère avait investit :p
Le 01/07/2016 à 15h 23
Le 01/07/2016 à 15h 22
En effet là ils parlent du SSD tout-public. Si tu regardes les SSD en PCI-E, très haut de gamme, avec des débits au-delà du Go/s… Non, ça n’a pas baissé.
Et regarder la performance d’un SSD est très difficile : perfs aux petits fichiers, gros fichiers, tout cela peut énormément varier d’un SSD à l’autre. En parlant des SSDs en PCI-E, ils sont souvent plus lent que ceux en SATA pour les petits fichiers… Eh ouai, ça paye le RAID on-chip :p
Le 01/07/2016 à 15h 19
Mais vu les débits avec cache et la rareté du remplissage du cache… On y gagne sur toute la ligne.
Côté endurance, il a été montré il y a peu qu’en fait, les SSDs sont iiiiiiiiincroyablement plus endurants à l’utilisation que ce qui était prévu par les fabricants à l’origine. (je retrouve pas l’étude, désolé)
SSDs can last a lifetime (2014 !) :http://betanews.com/2014/12/05/modern-ssds-can-last-a-lifetime/
Finalement, MLC aussi fiable que SLC (mars 2016) :https://www.techpowerup.com/220432/high-end-slc-ssds-no-more-reliable-than-mlc-s…
Radeon RX480 : une révolution aux allures de « promesses de campagne »
30/06/2016
Le 01/07/2016 à 10h 23
Pas quelques, une au maximum :) Les gtx9 (je pense à la 960) ont été mal appréciées.
Le 01/07/2016 à 10h 16
Ils ont peut-être fait un effort cette année, alors, mais ce n’était pas le cas l’an dernier (les FounderEdition n’existaient pas ?). Tout le monde m’a conseillé de prendre une carte MSI et non la carte de base, qui était apparemment une daube.
Le 01/07/2016 à 10h 08
" />
Le 01/07/2016 à 10h 07
On parle d’un problème d’alimentation, qui est dû comme quelqu’un l’a précisé dans un autre comm’ au fait que le modèle de référence, c’est de la merde, autant chez AMD que NVidia. Le problème n’est pas inhérent à la puce elle-même.
Le 30/06/2016 à 11h 15
C’est parce que l’hiver a duré jusque tard, Industriality doit être une marmotte, il s’est réveillé la semaine dernière.
Le 30/06/2016 à 11h 14
Pas de bruit chez NVidia ? C’est parce que tu n’achètes pas le modèle de référence… Et parce que AMD sait que les gens attendront les modèles brandés et n’achèteront probablement pas (ou peu) le modèle de base qui est présenté ici.
Le 30/06/2016 à 11h 13
Woooooo, du calme.
AMD a(vait) un retard violent à rattraper côté consommation/chauffe. Là, ils s’alignent sur les modèles de l’an dernier voire presque ceux de cette année de NVidia. C’est juste exceptionnel de passer de 480w de consommation en pic à 230… et de 270w de TdP à 150w.
Ensuite, côté perfs… Bah chais pas, pour le prix, je ne suis pas déçu.
Chauffe ? Bruit ? Comme ça a été dit par FREDOM1989, c’est le modèle de référence. Perso j’attends le modèle MSI, bien refroidi, hypra-silencieux et overclocké. Ils savent faire des miracles. (je pense à la gtx960 de référence, qui est moisie, et à ma gtx960-MSI, que je n’entends jamais \o/)
Radeon RX480 : le modèle de référence mis en vente à 259 euros
29/06/2016
Le 01/07/2016 à 10h 00
À c’point là ? o.O Niveau isolation haute fréquence ?
Mais oui effectivement, côté bruit/refroidissement, les commentaires sont très négatifs alors que… C’est un modèle de réf… Merde quoi, même chez NVidia c’est de la merde " />
Le 01/07/2016 à 09h 59
Moins de perfs, plus cher etc… (par contre côté conso…" />)
Le 01/07/2016 à 09h 57
Vous attendiez une carte graphique exceptionnelle niveau perfs de la part d’AMD, alors qu’ils ont clairement annoncé se concentrer sur le low-end.
Ensuite, ils avaient plusieurs générations de retard… Là, on peut considérer qu’ils n’en ont qu’une demie. Perso j’attends les CPU, si l’évolution est aussi flagrante que pour leurs GPUs, ils écraseront Intel. Et pareil pour la génération Vega des prochains GPU.
Le 29/06/2016 à 15h 55
Pas tant que ça. Au moins, AMD se met (à peu près) au niveau de NVidia… Et ça faisait longtemps qu’on attendait ça.
Là je suis à peu près sûr que ma prochaine CG (après ma gtx960 2Go MSI de l’été dernier) sera une AMD, dans deux ans je pense.
Le 29/06/2016 à 15h 53
Le sous-titre :
L’été sera chaud !
Vu sa TdP… Non, pas si chaud que ça ;)
Rosetta donnera « un ultime baiser » à la comète Tchoury le 30 septembre
01/07/2016
Le 01/07/2016 à 07h 53
Hmbon, j’ai surestimé la désintégration des météoroïdes dans l’atmosphère, là c’est un peu trop gros pour que ce soit sans danger ^^
Le 01/07/2016 à 07h 48
Exactement, on va envoyer à Rosetta toutes les instructions, dont “envoie en permanence les mesures”. On va les recevoir au bout de quelques heures, alors que Rosetta aura fini d’émettre, mais pas grave, on aura toutes les mesures ;)
Dites, chez NextInpact, ce serait cool de mettre en place un système de “+1” aux commentaires pour plussoyer les explications des gens :)
Le 01/07/2016 à 07h 46
Ça va, c’est pas une “grosse” comète”, juste quelques kilomètres de diamètre. Elle se désintégrera en bonne partie avant de faire un petit cratère sur Terre, ça fera de l’animation et une belle étoile filante ;)
SanDisk : deux microSDXC de 256 Go, dont « la plus rapide au monde »
29/06/2016
Le 29/06/2016 à 15h 43
Pareil, ça fait bizarre. Par contre, côté perfs… C’est pas pareil ;) (et côté durée de vie aussi, je pense… ?)
Multiprocessus : Firefox 48 marquera enfin le premier pas vers Electrolysis
09/06/2016
Le 09/06/2016 à 06h 56
Oh, ça va faire olus d’un an qu’on y a droit dans la Nightly !
SSD Samsung PM971-NVMe : jusqu’à 512 Go et 1 500 Mo/s pour un gramme seulement
02/06/2016
Le 03/06/2016 à 10h 51
Je suis d’accord, mais je trouve ça proprement hallucinant que Toshiba n’ait eu aucune communication autour de ça, et qu’on se retrouve à aduler Samsung pour ce truc (Même si c’est effectivement un prodige technologique).
Le 03/06/2016 à 10h 08
Et un petit article sur la standardisation de tels SSDs BGA…
http://www.anandtech.com/show/10166/samsung-demos-its-first-bga-ssd
Le 03/06/2016 à 10h 05
Et putain, en fait, Samsung n’a rien inventé :
http://www.kitguru.net/components/ssd-drives/anton-shilov/toshiba-debuts-worlds-…
Il y a juste la montée en perfs qui est intéressante. Tout le reste du boulot a déjà été fait par Toshiba… En janvier.
Le 03/06/2016 à 10h 00
Merci " />, j’allais poster un produit du même genre ^^
Le 03/06/2016 à 09h 56
Où vois-tu une obsolescence ? Clairement ce n’est pas prévu pour des PCs mais pour des smartphones.
Devant la Cour de cassation, la liberté de la presse peut l’emporter sur le droit à l’oubli
31/05/2016
Le 31/05/2016 à 11h 09
Effectivement, là c’est compliqué… Et c’est justement pour ça qu’on en parle ^^
Je répondais surtout à AlainEtCo à propos des politiques (ou des acteurs, PDGs de multinat, etc) : La question ne se serait même pas posée pour, mettons, Valls ou Johnny Hallyday. Dans leur cas, le “retour à zéro” n’existe pas de base, et bien heureusement.
Quant à être une personne publique et avoir droit à sa vie privée… Oui, bien sûr, dans certaines mesures. Mais (malheureusement ? heureusement ?) ce n’est pas le cas dans le monde d’aujourd’hui.
Le 31/05/2016 à 09h 10
Comme je le rappelais justement hier, il ne faut pas oublier de faire la distinction entre personne publique (qui a pris la responsabilité que son nom soit affiché et connu de tous) et personne “privée” qui, elle, n’a pas pris cette décision. Une personne privée ne va pas être suivie de papparazi (et peut je pense porter plainte pour atteinte à la vie privée), une personne publique (politiques dont tu parles), non.
OCZ RD400 : des SSD M.2 NVMe capable de grimper jusqu’à 2,6 Go/s
30/05/2016
Le 30/05/2016 à 17h 54
Même réponse qu’au dessus : là, ce disque n’a plus trop de sens pour un disque système… Les procos limitent déjà. Au hasard, je pense que tu ne diviseras pas ton temps de boot par plus que 1.5 par rapport à un ssd 3 fois moins cher ^^
Le 30/05/2016 à 17h 52
Ah il y a certes une quantité incroyable d’usages. Mais oui, pour un usage domestique peu d’utilité, nos processeurs commencent parfois à limiter maintenant… Dire qu’avant c’était le port usb ou le disque qui limitait…
Pour de la vidéo… Là faut faire attention au cache du disque. Là c’est de la MLC, c’est certainement mieux que de la TLC :)
Le 30/05/2016 à 10h 22
Ah non :)
Pour la bureautique tu n’as pas besoin d’autant de perfs, achète un Sandisk, 128go pour 50€, ou un Samsung un petit peu plus cher ^^
Aux États-Unis, des avertissements pour avoir téléchargé Le Parrain
30/05/2016
Le 30/05/2016 à 15h 47
Et si on les trollait et qu’on téléchargeait tous ce torrent ce soir ? " />
Calendrier Sunrise disparait des stores et ne fonctionnera plus dès le 31 août
12/05/2016
Le 12/05/2016 à 09h 16
Ou comment mieux couler les concurrents : en les rachetant.
GCC 6.1 disponible : la norme C++ 14 utilisée par défaut
28/04/2016
Le 28/04/2016 à 15h 54
Ça permettrait du coup à GCC d’être compilé avec les openMP et openAAC pour paralléliser la compil sur GPU… Non ? " />
Le 28/04/2016 à 15h 10
Le 28/04/2016 à 15h 08
GCC 6.1 supporte pleinement Zen chez AMD
Ah ouai, ‘sont au taquet. Bien.
Bash Ubuntu de Windows 10 : Microsoft explique le fonctionnement du sous-système Linux
27/04/2016
Le 28/04/2016 à 13h 22
Ah moi je sais de quand elle date, j’ai réussi (enfin ! j’ai eu du mal vu la stabilité et la solidité face aux tortures qu’on peut lui infliger) à cramer mon ancienne installation en supprimant malencontreusement les bases de données de paquets.
Le meilleur exemple de la stabilité de cette distro est que ma nouvelle installation est chiffrée + utilise LVM, avec les paramètres de base, et que c’est incroyablement fonctionnel.
Le 28/04/2016 à 12h 57
tazvld a écrit :
Très régulièrement, j’ai des problème. Il n’y a pas 1 mois, mise à jour ou que sais-je (Ubuntu Gnome edition): écran noir au démarrage, rien, nada… Je démarre sur un noyau précédent, ça marche … " />
Régulièrement, je fais un “alt+f2, r” pour relancer gnome car j’ai des problèmes d’affichage…
Et ça c’est que pour la partie graphique. Je ne parle pas des programmes qui plantent régulièrement (programme lié à l’OS/bureau comme Kate ou Nautilus).
Change de distro. Ubuntu est la distro avec laquelle j’ai eu le plus de problèmes de stabilité (même avec une utilisation classique). Linux Mint est largement meilleure, et je suis sous Manjaro depuis 2 ans et demie sans avoir de quoi me plaindre !
AMD explose en bourse, grâce à la création d’une co-entreprise en Chine
28/04/2016
Le 28/04/2016 à 07h 55
Je suis plus que d’accord. Les prix d’Intel explosent de façon indécente.
Espérons que l’architecture Zen soit à la hauteur des attentes… Avec une consommation réduite, qui plus est.
Firefox 46 intègre finalement le support de GTK3 sous Linux
26/04/2016
Le 26/04/2016 à 23h 15
Uther a écrit :
Un rpm sur Fedora, plus un deb pour Debian, qui sera peut être ou peut-être pas compatible avec Ubuntu, et je ne parle même pas des distribution plus rares ou des problèmes si on veut plusieurs versions d’un même logiciel. Un développeur ne peut pas gérer toutes les distributions.
Certes tant que l’on reste dans les paquets officiels de sa distribution tout va bien, mais une distribution ne peut pas non plus maintenir a jour le packaging de tous les logiciels existants.
Justement, un développeur ne se soucie à peu près jamais de la destribution et du packaging de son logiciel. Tu fais ton code, dans ton Readme tu dis “faites ./configure && make pour compiler avec comme argument le chemin vers le dossier de librairies et le dossier de données (souvent /usr/share/le_logiciel)” et basta.
Après, c’est bien gentil de dire que “ya plein de distros c’est chiant” mais au fond, elles sont organisées pareil. /usr/bin, /etc pour la config, /usr/share pour les données. Et avec autotools, make install te fait direct l’arborescence de ton logiciel.
Du coup, la création de paquets revient quasi uniquement (d’expérience) à rattraper les erreurs des développeurs.
La seule incompatibilité entre Ubuntu et Debian (comme tu l’as noté) n’est pas due aux paquets eux-mêmes. Elle est due aux imbéciles de maintencurs d’Ubuntu qui ont cru intelligent de prendre le même format de paquets, à peu près les mêmes bases de données, mais EN CHANGEANT LE NOM DES PAQUETS DE LIBRAIRIES. Du coup un paquet Debian ne retrouve plus ses petits. Bon et aussi au fait que Apt-Get, c’est en carton pas solide.
Le 26/04/2016 à 14h 18
Le 26/04/2016 à 14h 15
J’aime vivre dangereusement " />
Et “killall -u salamandar && umount /home” est plus rapide que de lancer un live usb ;)
Le 26/04/2016 à 13h 47
Le 26/04/2016 à 13h 39
+1
Et oui le développeur fait rarement du packaging, à part pour des raisons de tests.
Et si le packaging du logiciel est trop compliqué, c’est certainement qu’il est mal développé (gros yeux vers QtiPlot, bordel…).
C’est pour ça que quand je vois des projets qui embarquent leurs dépendances dans leur code source, je pète un câble. Oui ça fait un peu de boulot en plus pour vérifier que ça tourne avec la nouvelle version de la lib, mais tout le monde en profitera. Et le fait qu’il y ait une floppée de distributions n’y change rien. Tu vis dans un écosystème avec plein de projets, plein de librairies, faut faire avec.
Le 26/04/2016 à 13h 30
Jvois pas le problème, je le fais quand ma session est en carafe ou quand je veux bidouiller ma partition home " />
Mais bon, je sais ce que je fais (enfin plus ou moins), et je sais ce que je risque :p
Le 26/04/2016 à 13h 17
C’est ce que je disais : la nécessité des droits root est une critique acceptable de Linux, dans le sens où c’est un vrai problème.
Après ça a de vrais avantages, mais peu pour un ordinateur personnel (avec un seul utilisateur). D’où l’existence de sudo.
Pour les librairies et les dépendances, je suis à moitié d’accord avec toi.
En effet, ça impose un travail d’intégration à chaque distrib.
Mais si le développeur est clair sur les besoin de son logiciel (simple liste des dépendances + système de build transparent (c’est déjà le cas) + “comment dire au système de build les chemins vers les libs et include” (c’est peut-être là qu’il faut un peu de boulot, mais pas tant que ça si tu utilises les systèmes de build classiques (autotools, cmake, etc))), le seul travail à faire est du côté du mainteneur de la distrib, et ce n’est pas compliqué.
Exemple, j’ai écrit quelques PKGBUILDs pour ArchLinux, dans le pire des cas j’ai pris 20 minutes à écrire le paquet + tout vérifier.
Le 26/04/2016 à 12h 51
C’est faisable certes, mais pas les paquets précompilés qui contiennent des références à /usr/lib et /usr/share.
Et ce n’est pas la façon de faire habituelle, ce n’est pas user-friendly de le faire :)
Après, ya les paquets xdg-apps/snappy(beurk)/Appimage qui commencent à arriver et qui changeront peut-être ça. Mais on pert un peu de l’“essence” de la gestion des paquets et des librairies partagées sous Linux qui est clairement un avantage !
Le 26/04/2016 à 12h 41
J’vois pas trop alors. Enfin si, tu peux à la limite donner les droits root au binaire apt-get / pacman, avec les droits SUID / GUID. Mais c’est risqué " />
Le 26/04/2016 à 12h 30
Tu veux dire, en permettant aux utilisateurs de jouer avec le système ? On perd l’avantage de la sûreté des permissions POSIX ;)