votre avatar Abonné

Citan

est avec nous depuis le 17 mai 2005 ❤️

4446 commentaires

Le 09/06/2017 à 08h 46







NextlNpact a écrit :



Pour les députés, c’est la séparation des pouvoirs, il est normal qu’ils soient “protégés” pour ne pas subir de pression, sinon tous les pouvoirs peuvent être concentrés chez une seule personne et ça s’appelle une dictature. Un peu de relecture des cours d’éducation civique de primaire peut-être ?



Pour les avocats, c’est aussi totalement normal. Si tu es poursuivi par l’état ou quelqu’un de mèche avec un état totalitaire, il est normal que ton avocat qui va te défendre soit protégé, ne subisse pas de pressions extérieures, et ne soit pas obligé de communiqué les documents/infos/… préparés pour ta défense. Sinon il ne peut plus te défendre correctement et la justice n’existe plus.

 J’ai du mal à voir le même intérêt d’empêcher les perquisitions chez un cdocteur ou une aide soignante ?







Donc comme le viol et le meurtre c’est moins grave que le trafic de matières nucléaires on va se priver de croiser les fichiers des passagers avec ces infos pour laisser arriver chez nous des meurtriers et des violeurs reconnus ?

“L’aide à l’entrée irrégulière” ce ne sont pas ceux qui aident les réfugiés à survivre une fois qu’il sont arrivés chez nous. Ce sont ceux qui justement les aident à rentrer et à passer les frontières, moyennant finance. Des passeurs donc, qui encouragent les mouvements dans un but financier.





Bref encore une “analyse” pleine de mauvaise foi qui part du principe que “Macron est un dictateur au service de XXX (mettre ici votre ennemi visceral ou votre bouc émissaire du monde qui va mal)”, interprète tout dans ce sens en déformant la réalité au besoin, pour conclure par “Macron est un dictateur au service de XXX”. Youpi la qualité de l’argumentation…

 







  1. En quoi protéger les bureaux des députés des perquisitions empêcherait la pression ? XD Les pressions existent déjà depuis longtemps, elles se concrétisent à travers le parti, à travers des jeux de pouvoir voire dans des cas probablement très limités en nombre par des menaces de violence.

    Le bureau d’un député n’est censé contenir que du travail législatif. Le travail législatif est public. Donc il n’y a aucune raison de protéger les députés.

    Quant aux avocats, ils ont toujours été un des nids de choix pour dissimuler des informations ou documents compromettants justement de par l’aspect respect de la confidentialité et de la vie privée. Pourquoi donc devrait-on respecter cette limite si VRAIMENT on considère que la personne mise en cause initialement constitue un danger majeur pour le pays ?

    Ma sortie tient au fait que tu n’as aucun réel contrôle sur la manière dont tous ces pouvoirs seront exploités : le fait de pouvoir donc par exemple perquisitionner chez le psychiatre d’une personne ou son médecin peut te fournir des moyens de pression indirects.



  2. Donc on va définitivement marquer du sceau adéquat toute personne ayant commis un crime, quand bien même il se serait agi d’un acte isolé et lointain dans le temps, pour lequel elle a purgé sa peine ?

    Belle conception de la justice et de la réintégration.

    Note que pour le coup ils ont repris la liste telle quelle depuis la directive, mais je n’avais pas réalisé à l’époque sa portée réelle.



    Et non, ce n’est pas une analyse de mauvaise foi, juste un constat que Macron, comme les autres, se contente d’une réflexion de superficie qui l’arrange pour encore renforcer les pouvoirs de l’exécutif au détriment de tout le reste, en particulier le judiciaire, sous couvert de “nous protéger” (quelle blague, à peu près comme la vidéosurveillance devenue vidéoprotection).


Le 08/06/2017 à 21h 22

J’aime particulièrement…





  1. L’exclusion bien ciblée des avocats/journalistes/députés.




  • merci l’exlusion qui préserve les députés SANS FUCKING RAISON APPARENTE (désolé, le travail législatif n’a aucune vocation à être secret à mon sens).

  • merci et bisous pour toutes les professions pour lesquelles le respect de la confidentialité et de la continuité d’activité m’apparaît comme tout autant voire plus essentiel que celui des avocats, à commencer par toutes les professions directement liées à la santé.

    Bande de crevards sérieux.






  1. La liste de l’article 6 pour les traitements automatisés qui place des pommes, des carottes et des navets au même niveau : il n’y a que moi que ça choque de voir, en particulier, le trafic de véhicules volés (bof, impact économique sans plus), l’aide à l’entrée irrégulière (les “mauvaises langues” diraient que c’est un acte humanitaire -parce que là les trafiquants qui en font commerce et les gens qui tentent d’aider les gens en galère ne sont pas distingués), le viol et le meurtre (anéfé très grave, mais ça n’affecte que quelques personnes isolées) placés au même niveau que le trafic de matos nucléiare, détournement d’avion ou traite pédophile ? La magnitude des risques, tout comme leur nature et le potentiel de personnes affectées n’ont absolument rien à voir.

    Ils auraient mieux fait de juste mettre “tout et plus encore”, ç’aurait été plus honnête et plus lisible…



    Bref, Macron quoi…

Le 05/06/2017 à 14h 44

BOnjour,



pourquoi dis-tu que les derniers sont très moyens ? Ne sont-ils pas tous basés sur le même chassis, avec juste le look qui change et la possibilité ou non d’avoir une alim plus grosse ou un lecteur de disque optique ?

Le 02/06/2017 à 13h 21

Si ça peut te conforter, je ne le suis pas non plus. Cela dit, j’ai l’habitude de me palucher des pavés de texte depuis bien longtemps (grand lecteur depuis gamin, formation initiale en droit), ça aide sans doute ! <img data-src=" />



Si tu as la motiv, suivre une “vraie” formation aide toujours c’est certain. Si tu n’es pas encore sûr de toi, comme dit auparavant tu peux te faire la main sur des commandes non dangereuses. Comme pour tout il y a à la fois l’aspect apprentissage pur et l’aspect pratique pour prendre des réflexes et se familiariser avec le simple fait de manipuler le système en ligne de commande. :)



Après si tu es sur Toulouse ou Paris et que tu veux un coup de main ou une mini-formation pratique autour d’un verre, ça peut s’arranger (ce n’est pas mon coeur de métier mais j’ai déjà assuré des formations donc je suis pas totalement novice ^^) <img data-src=" />

Le 02/06/2017 à 11h 06

Elu commentaire boulet du jour. <img data-src=" />

J’espère que tu n’es pas admin sys pour de gros systèmes d’information dis donc… <img data-src=" />



Il est certain que vraiment exploiter sudo c’est assez relou parce que ça nécessite de bien concevoir sa stratégie d’élévation de privilèges. Et ce n’est qu’une manière parmi d’autres de sécuriser un système.



N’empêche que faire cet effort est gratifiant à long terme. :)

Rappel d’un principe de base de sécurité (même si c’est généralement antinomique avec la notion de flexibilité donc ça fait hurler les utilisateurs <img data-src=" />) : n’attribuer que les droits nécessaires pour limiter la surface d’exposition.



Après c’est sûr pour gérer son serveur perso, bon, on peut effectivement s’en passer <img data-src=" /> (quitte à prendre du temps, autant le passer à verrouiller un accès en root par clé ssh + ip fixe uniquement, plus pratique à terme pour les grosses maintenances sans trop compromettre la sécurité). Même si le fin du fin serait en fait de combiner ça avec sudo (connexion distante par ip+clé sur utilisateur courant, seul autorisé à exploiter sudo pour passer root par mot de passe interposé).



Et encore, je ne suis qu’un pauvre amateur. Je suis sûr que ce que je décris là couvre à peine 5% de tout ce qu’on peut faire en termes de sécurisation. <img data-src=" />

Le 02/06/2017 à 10h 59

Petit bonus pour la route c’est cadeau ça me fait plaisir (de tête j’espère ne pas me planter <img data-src=" />)

du –max-depth=1 -h . | sort -rh

Commande qui te retourne une vue d’ensemble de l’espace utilisé par le

répertoire courant et ses sous-répertoires directs, en ordre décroissant

de taille. :)

Le 02/06/2017 à 10h 53

Si je voulais faire le vieux con, je dirais bien RTFM (pour une commande, man “nomdelacommande” t’affiche l’aide en texte brut, tu peux quitter à tout instant avec la touche q -pour “quit”)… <img data-src=" />



Mais en vrai faut avouer que parfois le man est assez cryptique (surtout lorsque on est encore au stade où on cherche à piger à quoi sert une commande).

Cela dit ça fait toujours une première base, après sur internet outre les inévitables threads sur Open Stack et similaires, tu trouves des outils sympas commehttps://explainshell.com/ qui “t’explique” (enfin, comme il peut) le sens d’une chaîne de commandes.



Par ailleurs, s’il est toujours déconseillé de jouer avec les opérations “destructrices” (de type mv/rm) surtout en commandes chaînées, tu peux te familiariser tranquillement rien qu’en jouant avec des commandes informatives telles que find (trouver des fichiers), du (disk usage), ls (list), grep (renvoyer des lignes de fichier comprenant une chaîne de texte) et le concept de chaînage (“piping” en anglais avec le caractère |).



Rien que maîtriser ces commandes au quotidien peut grandement te faciliter la vie une fois les options les plus courantes assimilées.

Par la suite, tu pourras jouer la finesse en créant des alias pour tes chaînes de commande (je te conseille de le faire tard cela dit, si tu le fais tout de suite tu n’apprendras pas vraiment).

&nbsp;

Le 02/06/2017 à 10h 45

+1000 Merci de corriger la news.

&nbsp;Même si dans la plupart des usages les gens se connectent en root “parce qu’un bon bazooka pallie bien la déficience en crochetage ou déguisement”, l’usage sérieux et raisonné consiste à pleinement exploiter l’outil sudo pour définir différents niveaux de permissions ou se substituer lorsque nécessaire à des utilisateurs particuliers (ex serveur web : on préfèrera créer des répertoires ou décompresser des archives en tant que www-data directement, qui est l’utilisateur créé par défaut pour tous les serveurs web, plutôt que de passer par root avec risque de problèmes subséquents de permissions).

Le 22/05/2017 à 23h 33

Vrai, je n’avais pas pensé au vent, mais c’est effectivement un facteur de difficulté pouvant justifier le vélo électrique. ;)




 Pour le reste, j'avoue que j'avais jamais envisagé le vélo électrique pliant, parce que c'est bien pratique pour ceux qui cumulent vélo + transport, mais c'est à peu près tout. Pour tous les autres, c'est vraiment pas la joie : moins rapide et plus fatigant (roues minuscules, quand beaucoup d'électriques "normaux" proposent du 28 pouces au lieu du 26 standard), batterie (probablement ? Là je suppute) moins grande, moins confortable, et comme tu l'as souligné bien moins fonctionnel. :)      






Pas d'accord sur le point de été = on transpire forcément, mais je suppose que ça dépend fortement de la région où l'on vit et de l'environnement physique de chacun. ;)      

Je peux t'assurer qu'à Toulouse, en vélo "normal", je peux faire tous mes trajets sans transpirer (sauf côte), c'est juste que je roule à 22 au lieu de 30 histoire d'avoir un rythme peinard. ^^ ET je ne prétends pas être un athlète, loin de là. C'est juste que le corps prend vraiment vite le pli (et un vélo de qualité minimum avec roues de 28 pouces ça aide bien aussi :transpi:).





Ah et sinon, désolé mais tu n’es pas la preuve du contraire : désolé mais tu n’es pas représentatif de la majorité de la population (ou alors on veut les sources et les photos <img data-src=" />)

Le 22/05/2017 à 11h 49

Certes, mais c’est principalement dans les grandes villes que le problème de bouchons / excès de pollution se pose en premier lieu.



En semaine, tu as réellement 80% des voitures grand minimum dont le seul occupant est le conducteur.

Mettons de côté…




  • Ceux qui font du “covoiturage” pour x raisons (déposer / aller chercher les enfants, covoiturage de collègues) - Ceux qui habitent en dehors des grandes agglomérations mais doivent aller y travailler (parcequ’effectivement on a pas toujours accès à des transports en commun).

  • Ceux qui ont des difficultés physiques trop présentes pour envisager un effort léger sur plusieurs dizaines de minutes.

    &nbsp;

    Eh bah, rien que tous les autres, s’ils se bougeaient le fion à prendre le vélo (électrique si vraiment le trajet est super galère en termes de pentes ou dépasse les 10km de distance) au lieu de poser leurs grasses fesses dans la caisse juste pour être un peu plus confort, on gagnerait énormément.



    &nbsp;Les arguments généralement opposés sont balayables d’un simple revers de main, une à deux semaines suffisent largement à prendre le pli.

  • Pluie / Froid ? Tu investis 40 euros dans des trucs de base à D* et t’es paré.

  • Transpiration ? On en chie la première semaine le temps que le corps s’adapte, après il suffit de trouver le bon équilibre effort / temps de parcours (points bonus si on fait du sport par ailleurs pour renforcer le corps, afin qu’au fil du temps le même trajet ait moins d’impact en termes d’effort).

  • Grosses côtes ? À la dure (on s’endurcit), à la cool (on prend du temps), à l’efficace (vélo électrique), au futé (on contourne), de nombreuses pistes existent pour traiter le problème des pentes fortes.

  • Charge utile ? De nombreux systèmes de sacoches ou paniers permettent de transporter des charges relativement encombrantes ou lourdes sans soucis (perso je fais mes courses avec deux sacoches latérales, chacune peut accueillir sans forcer un pack d’eau classique (6*1,5 litres) et avoir encore environ 25% d’espace utile disponible. Et à l’arrière ça se sent pas trop sur l’effort.



    Le pire ? En ville on va généralement plus vite à vélo qu’en bus dès lors que des correspondances sont nécessaires, et la comparaison en temps de trajet avec la voiture tient largement la route en dessous des 10km de distance sauf dans les zones vraiment trop chahutées sur le plan topographique.



    Mais bon, je ne me fais pas d’illusions. Tant que l’essence ne sera pas hors de prix (ou les places de parking réduites à 1 place pour x dizaines de voitures en circulation histoire que ce soit la guerre totale), les citadins ne feront pas même l’effort d’envisager le vélo.<img data-src=" />

Le 18/05/2017 à 12h 57



AMD délivre trop peu d’informations pour que cela puisse paraître honnête, dommage.



Bravo les gars pour le procès d’intention gratuit.

Oui, AMD a fait nawak pendant des années en termes de com’, mais au cas où vous ne l’auriez pas remarqué ça commence à changer depuis plusieurs mois. Mais Rome ne s’est pas faite en un jour.

Par ailleurs, pourquoi donc donneraient-ils dès à présent, au grand public (y compris donc à leur concurrent), des informations détaillées permettant de comprendre l’architecture qu’ils ont adoptées (et donc réagir en conséquence, soit en reprenant les bonnes idées dans la conception des prochains processeurs, soit en poussant d’autres pratiques de développement vis-à-vis des éditeurs pour limiter l’impact positif de ces choix) ? AMD a fini par prendre la pleine mesure de sa position de faiblesse dans l’écosystème dans son ensemble, et leur seul différentiateur est (et a toujours été) l’innovation avec effet de surprise. S’ils donnent au concurrent le moyen de l’anticiper, ils perdront leur fenêtre de tir.





Car malgré le passage au 14 nm, cela n’est pas toujours le point fort&nbsp;des produits de la marque&nbsp;face à la concurrence.



Même si l’on ne prenait pas en compte le rapport perfs/consommation qui met AMD à peu près au même niveau, ou largement au dessus d’Intel, en fonction du degré de parralélisation des applis, ce que tu dis est juste faux.&nbsp;

Cf tests de Hardware.fr: consommation au repos similaire ou inférieure à tous les i7 sauf le 7700k, supérieure uniquement aux i5 (ce qui n’est pas étonnant). Consommation en pleine charge du 1800X effectivement nettement supérieure à la plupart des modèles Intel, mais pour un niveau de performance très différent. Si on regarde le 1700, il se maintient très largement sous la plupart des Intel. D’ailleurs leur graphique “d’efficacité énergétique” te contredit directement.

On regarde Cowcottland? Eux relèvent pour le 1800X une consommation au repos inférieure à tous les modèles i7 testés (dont le 7700). Il n’y a qu’en consommation “pleine charge” que la consommation du 1800x dépasse largement l’enveloppe thermique prévue et s’avère nettement plus énergivore que les pendants Intel, mais là encore pour des performances différentes. Concernant le 1700, le constat est similaire à celui d’Hardware.fr. Le tout sachant que les tests “pleine charge” des magazines spécialisés correspondent à des tests conçus pour exploiter 100% du processeur, mais dans la pratique de tous les jours rarissimes sont les cas de machines tournant en permanence à 100%.

De fait, effectivement, à fréquence par coeur égale, les Rizen consomment au moins autant, souvent plus. En quoi est-ce étonnant ? En quoi est-ce réellement un problème ? Voilà les questions auxquelles il faut répondre avant de vouloir porter un jugement de valeur.





Enfin, il y a l’inertie. En effet, cela fait des années qu’AMD traîne

une réputation qui est loin d’être très positive auprès des

consommateurs. Consommation élevée (la majorité des CPU étaient encore

en 32 nm avant Ryzen),

faible autonomie sur le mobile, performances limitées face à un Intel

capable de proposer des Core i7, etc. Bref, AMD était plutôt le choix de

ceux dont le budget était limité et qui acceptaient d’oublier tous les

autres critères afin de faire des économies.





&nbsp;1. Consommation élevée : en charge ça faisait une différence nette, mais même alors il fallait exploiter sa machine durant des heures par jour pour voir une réelle différence sur le budget. En idle peu importe sérieusement.





  1. Faible autonomie : anéfé, rien à redire là dessus, la finesse de gravure étant l’élément déterminant. Faut-il cependant rappeler qu’AMD ne maîtrisait plus son process de gravure, ce qui fait qu’il n’y pouvait rien ?



  2. Performances limitées : uniquement dans les jeux ou applications monothreadées “lourdes”, autrement dit, absolument pas le commun des mortels. Qui pouvait au contraire bien profiter du multicoeur pour un usage multimédia/bureautique, et qui aura du coup naturellement profité, sans toucher à son matos, du travail de fond réalisé au fil des années par les différents acteurs (Adobe, Microsoft, Mozilla, Google) pour refondre leurs applications sur base multi-threadée.



    Bref…

    Franchement, David, tu me déçois. Tu as, une nouvelle fois, un ton extrêmement négatif sur l’ensemble de l’article, j’ose même dire stupidement biaisé, face à une entreprise qui souffre depuis des années de l’obscurantisme des journalistes face aux conditions dans lesquelles elle essaye de vivre.

    Oui, obscurantisme : il n’y a pas d’autres mots, quand les tests se paluchent sur les performances brutes et la consommation pour conchier la faiblesse d’un acteur sans autrement faire leur boulot de journaliste, qui est de remettre en perspective 1) les moyens respectifs des acteurs 2) les usages réels 3) le ratio perfs/conso/prix sur plate-forme complète 4) l’écosystème (inertie extrêmement violente des développeurs, influence indirecte d’Intel -qui a appris la leçon du procès précédent- passant par des aides au développement d’appli plutôt que des restrictions au niveau des distributeurs, difficultés du fondeur à passer le cap de la finesse de gravure etc).

    Dit autrement, la mauvaise réputation d’AMD a été largement entretenue et aggravée par des journalistes qui ont préféré se gaver de branlette intellectuelle au lieu de proposer des analyses pragmatiques et concrètes.



    Sur cet article, c’est d’autant plus risible que vous avez vous-même publié la news sur le bilan d’Intel et de manière générale vous informez sur l’évolution financière des deux sociétés, donc vous ne pouvez ignorer l’extrême différence de moyens. Mais on dirait que l’information est compartimentée entre les news empêchant de tirer les conclusions logiques à partir des faits constatés…

    &nbsp;&nbsp;

    Désolé du coup de gueule qui te tombe dessus alors que je vise à peu près tous les “sites journalistiques spécialisés” (et que tu es très loin d’être le pire parmi tous ceux que je lis), mais c’est vraiment triste de voir qu’on ne peut pas compter sur des “professionnels” pour prendre du recul. Et autant j’ai lâché l’affaire pour les sites soi-disant “spécialisés” qui ne voient pas plus loin que le bout de leur nez, autant sur NXI ou généralement* vous arrivez à restreindre vos propres opinions et construire des analyses avec un minimum de réflexion et de prospective je n’arrive pas à laisser passer.



    * Je dis généralement parce que sur certains sujets vous êtes clairement biaisés également, comme ce qui est lié au DPI. Ça me dérange moins parce que pour le coup je partage votre opinion <img data-src=" />, mais la critique reste vraie également : plus vous vous autorisez à parler “en votre nom et opinion” au lieu de viser le pur factuel (y compris dans le style d’écriture), plus vous satisferez les lecteurs qui vous sont acquis, mais plus vous susciterez de méfiance de la part de lecteurs qui vous découvrent, à fortiori ceux qui n’ont pas forcément la même connaissance préalable des sujets traités.





    Pour être clair, je te remercie pour l’exhaustivité de l’article en terme de traitement des informations fournies par AMD, qui a dû te demander au bas mot une demi-journée de taff (probablement même plus d’une journée en tenant compte de la recherche d’infos). Je comprends bien également que l’objectif du présent écrit n’était pas d’écrire un dossier analytique complet mais simplement présenter l’information dans son contexte. Et j’apprécie que tu veuilles souligner la différence qu’il pourra y avoir entre des éléments de communication fournis dans une optique précise et la réalité du produit qui sera commercialisé, ça fait effectivement partie de ce que j’attends personnellement d’un article “journalistique”. Mais quitte à être critique, autant l’être pleinement, et pas juste “de biais et en surface”. Parce que là le contexte dans lequel tu places l’information, c’est une vision extrêmement restreinte et partant imprécise.

Le 05/05/2017 à 14h 30

Belle contre-vérité, impressionnant… <img data-src=" />



C’est pas comme si c’était justement du fait de pressions étatiques (au travers de l’ARCEP) que l’on a fini par voir arriver Free, et ce en dépit de nombreuses manoeuvres de la fameuse “main invisible” du marché pour tenter d’empêcher l’arrivée d’un gros caillou dans les rouages de l’entente tarifaire.

Pas si invisible que ça d’ailleurs soit dit en passant, à trois doigts : Bouygues en index, Orange en majeur, SFR en auriculaire.&nbsp; Trois doigts formant un magnifique doigt d’honneur à l’intention des consommateurs pendant plus de 10 ans… <img data-src=" />

Le 26/04/2017 à 08h 45

Bon bah le deuxième Guardians ce sera sans moi tristement.



Le premier fonctionnait bien car c’était de l’auto-dérision permanente de Marvel sur Marvel…

Là, de toute évidence, les héros se prennent grave au sérieux, on retombe dans la daube classique des têtes à claque qui se la pètent grave alors qu’ils n’ont aucun charisme…



Reste la mise en scène à base de 100% d’effets spéciaux. Sympathique ? Certainement. Jusqu’à claquer 10 boules ? Certainement pas… <img data-src=" />

Le 14/04/2017 à 12h 23

Hmm “mettre en veille” ne m’a jamais posé de problèmes (je parle là du mode -pour moi- où la diode de l’ordi reste allumée par intermittence, donc je suppose qu’il garde assez de jus pour conserver la mémoire vive).



En revanche, maintenant que tu me le dis, à chaque fois que mon système a essayé de se mettre en veille prolongée du fait de batterie critique, il est mort soudainement. J’avais toujours mis ça sur le compte d’une mauvaise configuration de ma part / problème d’évaluation du niveau de batterie (genre pas assez de jus pour soutenir toute l’opération) mais peut-être qu’en fait c’était dû à ça… <img data-src=" />



(Sinon, en théorie, je serais tenté de dire qu’effectivement tu ne peux pas faire de veille prolongée sauf à bien bidouiller ta config, mais je doute que la config par défaut dans les distribs prévoit un contournement en cas d’absence de fichier d’échange accessible. Donc si c’est un besoin pour toi… ;))

Le 14/04/2017 à 07h 50

“Il y a principalement deux avantages&nbsp;: on ne monopolise pas tout un

segment du disque, et le fichier peut varier en taille selon les

besoins. Attention toutefois en cas de chiffrement

via LVM, car il faudra alors préserver cette partition. Dans tous les

cas, la modification est faite pour prendre appui sur les configurations

modernes, où la RAM est beaucoup plus souvent suffisante pour se passer

de swap en utilisation quotidienne.”



Non seulement l’inconvénient n’existe pas sur un SSD, mais au contraire ça permet de profiter (à nouveau) d’un swap sur SSD.&nbsp;

En effet, la séparation par partitionnement étant physique, tu obligeais auparavant ton système à écrire toujours sur la même portion, réduisant ainsi à néant les mécanismes de répartition d’usure du SSD. En tout cas c’était vrai il y a 3 ans, j’ai testé (et désapprouvé XD un ssd usé avant l’heure). Comme par ailleurs avec assez de RAM (par rapport à ses besoins) on peut s’en sortir sans swap, depuis j’avais installé mon système sans /swap.* Un peu hardcore mais ça passe la plupart du temps. En revanche effectivement, il m’est arrivé de saturer la mémoire et là sans fichier swap le système n’est pas content.



Désormais plus de soucis. \o/

&nbsp;

@Marc tu pourrais rajouter cet avantage éventuellement. ;)



* Je suis bien certain qu’il existe depuis des années d’autres systèmes de swap basés sur des fichiers que l’on peut installer sous Linux, mais honnêtement j’avais pas envie de me prendre la tête. <img data-src=" />

Le 13/04/2017 à 08h 35

Ah mais on est bien d’accord sur le principe, mais la réalité est toute autre. Suffit de voir parmi tous les tests de jeux qui ont été faits certains qui grimpaient en perfs de 2 à 4 coeurs puis restaient identiques, voire DIMINUAIENT, quand plus de coeurs étaient impliqués.



Ça sentait bien le hard-code du “on cible 4 coeurs et puis c’est marre”… XD

Par ailleurs je serais tenté de dire que ce n’est pas toujours la faute du développeur non plus. Comme d’autres l’ont bien souligné c’est largement plus complexe de faire du parallélisme à X coeurs inconnus que cibler une plate-forme précise pour l’optimisation. Donc si ton éditeur te met la pression en mode “rien à foutre l’opti ça doit sortir dans 5 mois”, forcément tu tiens à garder ton job donc tu pares au plus pressé (possiblement en te disant que les mecs qui ont les thunes pour se payer un 8 coeurs auront de toute façon les thunes pour se payer une CG à 500 euros donc ça sert à rien de trop en faire XD).

Le 11/04/2017 à 17h 43

“Relis le dossier”. J’ai envie de dire, “toi-même” ! <img data-src=" />

&nbsp; Sur la page 16, début du dossier de test des GPU, la partie introductive écrit noir sur blanc…

“Enfin, contrairement à un CPU, ne basez pas votre choix sur le long terme : il sera très souvent plus intéressant d’acheter une carte graphique à 300 euros tous les trois ans qu’un modèle à 600 euros tous les six ans.”



Page 38 (benchs Ryzen), en conclusion…

“En bref, si votre PC sert exclusivement à jouer, les CPU d’Intel restent le meilleur choix.”



&nbsp;Or….




  • N’importe quel smartphone vendu aujourd’hui est multicoeur 4c / 8c.

  • Beaucoup d’applications métier sont en train de développer des optimisations multithread.

  • Tous les jeux actuellement développés le sont sur une base 4c/8t du fait de l’architecture des consoles actuelles.

  • Tous les outils de calcul lourd sont massivement multithreadés.

    &gt;&gt;&gt; L’écosystème de développement se “multithreade” si j’ose dire : plus de développeurs qui se familiarisent avec les problématiques dédiées à la parallélisation, plus d’outils dédiés pour leur faciliter le travail, etc.

    &nbsp;

    &gt;&gt;&gt; Tous les jeux AAA à venir en 2018 tableront à minima sur un processeur 4 coeurs / 8 threads, soit de manière stupide (j’utilise ça et pis c’est tout), soit de manière intelligente (logique prévue pour pouvoir exploiter plus de coeurs si dispos), sachant que ton pc doit en plus toujours gérer le système + toutes les applis accessoires.

    Tous les jeux AAA dont le développement démarrera fin 2018 environ devront tabler sur une parallélisation dynamique, car le marché sera trop étiré entre la part des 4c (tous processeurs achetés jusqu’en 2017), les 6c&nbsp; & 8c (coeur de marché en 2019 vu que les prix auront baissé grâce à la sortie des révisions côté AMD et nouvelle offre côté Intel) et les éventuels “gamer enthusiasts” qui auront acheté du 10+ coeur.

    Sans compter l’influence certaine des prochaines générations de console de Sony et MS qui arriveront entre 2020 et 2022 et seront très certainement basées sur des processeurs 8c ou plus.





    Maintenant, fais le calcul en prenant la référence temporelle de Canard Hardware PC et sa recommandation




  1. long terme = 6 ans.



    1. CPU = logique long terme.

      2017+6 = 2023

      &nbsp;

      Celui qui achète un Rizen aujourd’hui, sera sûr d’avoir encore des performances plus que confortables en jeu, y compris sur les AAA, et y compris si par ailleurs il étend son usage pour en même temps streamer/compresser/naviguer etc.



      Celui qui achète un i7700 aujourd’hui, dans 6 ans (à mon avis moins d’ailleurs mais peu importe), il aura le choix entre ravaler sa frustration ou racheter CM+proc parce que toutes les applis nouvelles tireront partie des 8+ coeurs.



      Après, certes dans la plupart des types de jeux, pour le moment, le GPU reste la pièce maîtresse donc je relève ça surtout pour le principe de l’illogisme et le fait que Canard PC se contredit dans ses conseils, au détriment aussi bien d’AMD que des consommateurs.



      &nbsp;Cela étant, si les éditeurs se décident à mettre l’accent sur l’intelligence artificielle les prochaines années (croisons les doigts pour avoir enfin, un jour, quelque chose digne du mot intelligence <img data-src=" />), je soupçonne que l’influence du CPU pourrait croître grandement et rééquilibrer la donne. ;)


Le 10/04/2017 à 21h 17







David_L a écrit :



On en reviendra toujours à “vaut-il mieux claquer 100 euros de plus dans le CPU ou le GPU pour un gamer”. On est plus souvent limité par le GPU que le CPU dans la pratique sur une machine “classique milieu de gamme”, même si parfois les benchs peuvent donner l’impression inverse. (Mais on y reviendra bientôt en détails ;))









revker a écrit :



Je préfère investir dans un bon processeur qui va me faire 5-6 ans car de toute façon vu l’optimisation des développeurs sur les AAA, tu es obligé de changer de carte graphique tous les deux ans.





Pareil, d’ailleurs j’ai twitté à Hardware PC pour les mettre face à leur contradiction.

D’un côté, ils disent (dans leur article sur des tests GPU) “contrairement au CPU où l’on peut planifier sur le long terme, il vaut mieux ne pas compter garder sa carte graphique plus de 3 ans” (en gros, pas le mag sous la main pour citer exactement).

De l’aute (test Ryzen), ils disent “si vous êtes joueurs mieux vaut prendre un i7700”.



Sachant que…




  1. Les R5 n’ont pas encore été testés, donc faudrait à minima voir le rapport perfs/prix.

  2. Les prochaines générations de console et les mobiles vont partir sur du 4 coeur public de base / 8 coeurs public “enthusiast”.

  3. En parallèle, le prix indécemment bas des 8c AMD par rapport à Intel fait que d’ici la fin de l’année, le renouvellement des machines se fera désormais directement sur du 4c en “bas de gamme”, et 8c pour tout le reste…



    Oser arriver, en combinant les deux idées, que prendre un i7700 c’est un bon choix à long terme pour le joueur (pour quiconque en fait)… C’est quand même un bel échec journalistique.



    M’enfin, ce n’est pas la première fois que des journalistes “spécialisés” oublient de prendre du recul sur leurs propres observations… <img data-src=" />

    &nbsp;

    Quand aux erreurs d’AMD, elles sont navrantes, mais elles étaient surtout prévisibles. Rappelons qu’AMD se bat avec au bas mot 10* moins de moyens qu’Intel, il est donc plus difficile de corriger le tir quand tu te rends compte que t’as été un peu optimiste sur ton planning…&nbsp;



    Cela dit, je remercie d’autant plus, du coup, les early adopters qui ont le courage de jouer aux beta-testeurs. Même si dans les faits le processeur fonctionne très bien, et que dans seuls certains cas précis des bugs surviennent, rien que le fait que je devrais mettre à jour le BIOS/firmware du processeur me fait flipper.



    Je suis averti, mais pas au point de ne pas serrer les fesses si je devais faire une manip susceptible en cas d’erreur de bricker 500 euros de matos… <img data-src=" />


Le 13/04/2017 à 06h 53

Bonjour à tous (sorry pas le temps de lire tous les coms).



Merci pour ces retours.

J’espère que vous envisagerez de tester certaines de mes idées pour “vendre” l’abonnement.



Le système d’achat à l’unité est une excellente idée dans la manière dont vous l’implémentez (un porte-monnaie si j’ai bien compris) et j’espère que d’autres pourront contribuer à son expansion en “achetant” son code.

Après ça dépendra du prix, ça va être compliqué : un truc genre 50 centimes l’article ça va faire gueuler (par rapport à 1 euro d’accès à tous les contenus), un truc genre 5 centimes pourrait avoir une image dévalorisante…

&nbsp;

Pour rebondir dessus, vous pourriez dans un deuxième temps (ou un premier si vous n’arrivez pas à trouver une grille de prix attractive pour le contenu unitaire) proposer des dossiers : des compilations d’articles sur un sujet, mis en page en pdf (ou non d’ailleurs mais je suggère ça pour le côté “document complet distribuable”).





  1. Cela reprend un peu la critique que je faisais sur l’insuffisance criante du moteur de recherche actuel, tandis que vous en interne, vous trouverez plus facilement les contenus (enfin, j’espère… Pour vous XD).

  2. Cela reprend aussi la suggestion que je vous avais faite de tirer parti de votre base de contenu, riche en qualité comme en quantité.



    Après, ne connaissant pas votre infra, je n’ai aucune idée de la mesure dans laquelle ce serait un truc assez simple à faire ou au contraire un chantier pharaonique.

    (Dans le cas où l’idée vous intéresse mais que votre infra n’est pas du tout adaptée, je serais tout disposé à vous aider bénévolement pour mettre en place une solution complémentaire dédiée à cet usage. Je suis en plein dans ce type de sujets actuellement <img data-src=" />).



    Quoiqu’il en soit, je souhaite, pour votre bien, mais également le nôtre en tant que citoyens, que Next Inpact vive encore longtemps* !







    * Et si possible, qu’il inspire ces putain de fucking d’incapables en politique, dans l’industrie culturelle et les médias…

    “Le plus grand risque serait de ne rien faire”. oui, OUI, OUI !!!!!

    Comment résumer en une phrase tous les trucs qui nous pendent à la gueule dans le monde, notamment en matière d’environnement… <img data-src=" />

Le 11/04/2017 à 18h 07







al_bebert a écrit :



toujours pas ça sur la consommation c’est dommage.






À moins d'être un écolo convaincu (auquel cas en tout état de cause à minima tu ne vas pas overclocker ton processeur, a maxima tu prends un processeur low-cost et tu adaptes ta conso) ou d'utiliser ton ordi en mode ultra intensif H24...      

ON S'EN BRANLE, MAIS D'UNE FORCE !!!






Surcoût estimé, pour un différentiel de consommation de 100W, avec un usage de 10 heures par jour, pour un coût d'électricité de 0,15 kWh.       

Par jour: 0,15 euros.

Par mois: 4,56 euros.

Par an: 54, 75 euros.






&nbsp;Sachant que le tarif que j'ai pris est peu ou prou le tarif heures pleines d'EDF, qu'en vrai le 1600 overclocké présente une différence de conso à la prise de 183-123 = 60 Wh, que le 1600 stock ne consomme que 9W de plus...      






Je te laisse imaginer l'ampleur des économies/du surcoût (verre à moitié plein, à moité vide, toussaaa) que tu feras sur plusieurs années...&nbsp;     





&nbsp;Sachant, soit dit en passant, que dans 4-5 ans tu voudras certainement passer sur du 8c si tu n’en as pas déjà : avec Rizen, quand bien même tu ne serais pas parti sur un R7 direct, tu auras des processeurs à &lt;200 euros (1ère ou 2ème génération, selon ton budget, les révisions publiées et le succès global d’AMD), qui tiendront sur ta carte mère AM4. Avec Intel, tu seras quitte pour racheter CPU et carte mère.




GG la stratégie gagnante pour économiser des sous.. :yes: XD

Le 11/04/2017 à 15h 52

[QUOTE]À quoi cela donne-t-il droit ? À un diplôme au format PDF, qui semble avoir la même valeur qu’un diplôme de&nbsp;scout. [/QUOTE]

Pas d’accord ! Un diplôme de scout a bien plus de valeur, d’une part parce que tu as appris des choses vraiment* utiles et pérennes (pas un savoir-faire qui deviendra inutile dès que Facebook changera des trucs ou abandonnera un outil), d’autre part parce qu’il y a des gens qui vérifient que tu as vraiment acquis le savoir-faire.



*Je dis pas ça en mode partisan hein, je n’ai jamais été scout. <img data-src=" /> En revanche j’en ai fréquenté pas mal, et faut avouer qu’ils sont bien plus dégourdis que -beaucoup- d’autres (moi compris <img data-src=" />)

Le 07/04/2017 à 14h 56


  1. Parce que les constructeurs n’ont aucune motivation vu que ça rallonge la durée de vie effective de leurs smartphones au lieu de t’inciter à changer ?



    1. Parce que les constructeurs proposent des surcouches codées avec des pieds de porcs (faute de temps/argent/compétence/envie) ce qui fait que n’importe quelle modif peut potentiellement causer une chaîne de problèmes ?

    2. Parce que les constructeurs veulent exploiter les nouvelles fonctionnalités offertes au sein de leur surcouche (ne serait-ce qu’intégrer l’interface de paramétrage) et que ça prend du temps ?

    3. Parce que les constructeurs préfèrent attendre que d’autres se cassent les dents sur les bugs de jeunesse de la nouvelle release donc attendent plusieurs mois avant de commencer à réfléchir à faire leur propre taff ?



      Je te laisse choisir (le choix multiple est autorisé, voire recommandé <img data-src=" />)… <img data-src=" />


Le 07/04/2017 à 09h 28

À chaque fois que je vois les gens bouleversés par une pseudo fragmentation qui n’affecte réellement que 3-5% des applications, ça me fait un choc… <img data-src=" />



&nbsp;(Google fait des efforts depuis un bon moment pour garder des API stables, donc après ce qu'on perd en restant en vieille version ce sont principalement les nouvelles fonctionnalités, qui ne sont pas intéressantes pour tout le monde -loin de là même-)        






  Le seul "vrai" souci c'est la sécurité, mais pour ceux qui n'utilisent que les applis Google et mettent à jour régulièrement, combien de failles critiques dans les entrailles de l'OS subsistent (vraie question hein, pas rhétorique, je ne me rends pas compte du degré de risque) ?     











sebtx a écrit :



Dire que beaucoup de terminaux android disposent de cette version uniquement grâce à des projets communautaires.





Dire que 90% des gens ayant un smartphone Android se branlent totalement d’avoir ou non la dernière version…<img data-src=" />







Soltek a écrit :



Faudrait



qu'on fasse une synthèse des commentaires de cette news d'ici quelques      



jours comme ça on aura juste à la copier/coller pour le mois prochain,

parce qu’on raconte toujours les mêmes choses <img data-src=" />






C'est assez vrai :mdr:   





sirius35 a écrit :





Ça me rappelle une fois où j’ai croisé un utilisateur de galaxy s4

stock (le mien était en CyanogenMod), je parcourais allègrement ma

galerie photo (environ 1200…) sans ralentissement alors que lui

peinait à afficher sa vingtaine de photos…. Exemple parmis tant

d’autres du ralentissement de la surcouche Samsung….



Je confirme c’est pourri Samsung. <img data-src=" />


Le 05/04/2017 à 15h 09







Ellierys a écrit :



Oui fin le droit de citation c’est une chose, mais t’oublies au départ que ce que tu as acheté ce n’est pas la copie d’une œuvre, mais une licence d’utilisation avec ses propres contraintes.





Sauf qu’on s’en branle total. Le droit de citation ne requiert pas qu’il y ait au préalable une quelconque relation contractuelle entre toi et l’auteur te conférant un quelconque droit d’utilisation.





shadowfox a écrit :



Je sais comment marche le droit de citation. Mais tu peux t’attirer les foudres d’Atlus en montrant les 20 secondes de la fin du jeu si j’en crois l’article. Pour autant, en droit français, on peut considérer ça comme une citation.



Ah ok. Mais là on en revient aux discussions sur lesquelles j’avoue n’avoir pas d’avis, du moins aux États-Unis.

En France, cela revient à poser la question de l’étendue de la protection accordée au droit de citation.

Peut-on empêcher quelqu’un de faire une citation dans les règles ? Certes non.

Peut-on placer une mesure de rétorsion parce qu’on lui avait demandé de ne pas le faire ? Si on considère la citation comme un “droit” plein au sens juridique, certainement pas (tu ne peux pas arbitrairement priver un tiers des droits qu’il possède).

Mais à mon sens justement la citation n’est qu’une “exception” pas un droit au sens plein.

Reste alors à savoir si ce type d’interdiction peut tomber sous le coup d’une qualification en clause abusive, du moins dans les rapports de l’éditeur aux consommateurs.



Et, tristement, je ne suis pas sûr que l’on puisse qualifier ça de clause abusive. Après tout, la cause de “l’achat” de jeu est bien d’y jouer. Le fait de diffuser sa session de jeu n’est ni le but premier du jeu, ni son usage habituel. Dès lors…



Reste que c’est complètement débile de la part d’Atlus comme politique, qu’ils aient le droit de le faire ou non. Ils se sont juste créés une très mauvaise presse, inutilement puisque le jeu est sorti depuis des mois au Japon.


Le 05/04/2017 à 11h 18

Je ne sais pas ce qu’il en est en droit américain, mais en droit français comme dit au dessus, le droit de citation ne peut de toute façon pas couvrir le cas d’un mec qui diffuse son écran de jeu en live…

Faut pas déconner hein, le droit de citation c’est une exception un minimum restreinte en périmètre…

Tiens, petit cadeau au cas où tu voudrais en savoir plus… <img data-src=" />

Le 05/04/2017 à 11h 13

Désolé mais n’importe quoi. Le droit de citation s’applique tout aussi bien au jeu qu’aux oeuvres musicales ou cinématographiques. Le jeu EST une oeuvre comme une autre, même sil bénéficie d’un régime spécial sur certains aspects (notamment le fait que certaines de ses composantes sont elles-même des oeuvres à part entière).



Cela dit, il est certain qu’un twitcheur ne peut se prévaloir du droit de citation (qui a vocation à être de courte durée et servir un propos particulier, complètement à l’opposé du concept de la diffusion en directe sans limite de temps). En revanche, dans un test vidéo où la majorité de l’image est juste la prise de vue de l’orateur, entrecoupée de quelques extraits tirés du jeu, aucun souci.



Tu soulèves d’ailleurs une question intéressante : doit-on continuer à considérer que la diffusion d’un extrait de jeu constitue une contrefaçon de représentation ? Selon l’interprétation la plus restrictive de la loi, certainement : ne serait-ce que parce que à minima tu représentes des éléments graphiques et sonores qui sont, en soi, protégeables et protégés.



Mais s’agissant du jeu en tant que tel, du point de vue de l’équilibre entre protection de l’auteur et propagation de la culture, est-il pertinent de considérer que cela reste vrai ? Cela revient à réduire au minimum l’importance de l’interaction dans l’expérience, ce qui est assez opposé à la notion même de jeu (il est vrai, des mauvaises langues diront que pour certains jeux la question ne se pose pas, vu la légèreté des interactions possibles). XD



Bref, cela ne fait qu’illustrer une fois de plus l’inadéquation de plus en plus criante de l’état actuel de la propriété intellectuelle face à la mutation des usages… M’enfin, c’est pas comme si ça évoluait dans le bon sens… <img data-src=" />

Le 05/04/2017 à 11h 02

C’est rigolo, quand ce sont les consommateurs qui payent “plusieurs fois” un montant “anormalement élevé” pour la “même chose” ça ne leur pose pas de problèmes…



Tu veux écouter un morceau de musique légal ? Achète le sur sur une plate-forme, paye sur ton disque dur externe, paye sur ton mobile, et bientôt paye sur ton cloud. C’est dommage que tu ne puisses pas le copier à cause des DRM (ok, ce n’est majoritairement plus vrai aujourd’hui, mais ça l’a été pendant de nombreuses années)…



Tu aimes particulièrement un film ? Achètes le en DVD, tu veux le copier ? Paye la taxe sur les DVD vierges censée compenser le fait que tu puisses le copier, et mets-toi dans l’illégalité puisque tu dois contourner les DRM pour ce faire… \o/



Tu es un professionnel de la photo ou un médecin qui doit stocker les clichés de radio ? Paye X fois pour un usage qui n’est pas le tien, et pour lequel ils n’ont aucune légitimité à te réclamer des sous… Mais dont ils profitent grâce au lobbying intense effectué auprès du gouvernement et Conseil d’état pour ni devoir rembourser les sommes perçues dans le passé, ni même abandonner le système du “paye d’abord, réclame après”.



Et maintenant ils chouinent (oui, je dis ils car même si ce ne sont pas techniquement les mêmes entités/personnes, ils sont globalement tous du même côté) ?

Qu’ils crèvent. Vite. En souffrant.

9 millions d’euros par an ?

Un prof des écoles débutant coûte à l’État, en étant très très large sur la dimension de la louche, 5000 euros par mois.

5000*12 = 60 000 euros par an.

9 000 000 / 60 000 =&nbsp;&nbsp; 3(300) / 32 = 150.

C’est peu, me direz-vous. Une goutte d’eau dans l’océan même.

C’est probablement vrai.



Maintenant, fermons les yeux un instant et multiplions ce chiffre par le nombre de toutes les putain de commissions de branleurs juste payées à faire de la paperasse sans intérêt pour caser les potes.



À votre avis, combien obtiendrait-on de postes d’enseignants débutants ?

Vous avez 30 mn. <img data-src=" />



(Perso, au jugé, en tenant compte du fait que les budgets varient largement d’un organisme à l’autre mais également le nombre total, je dirais bien 3500. Ça reste pas énorme, mais c’est toujours ça de pris pour l’avenir)

Le 03/04/2017 à 16h 04

Bonjour David. :)



Je comprends votre démarche, et pour ma part je continuerai à m’abonner sans hésiter…

Mais j’ai un peu peur pour vous si vous optez pour cette démarche.



Dans le sens où, en conséquence du phénomène que vous dénoncez (et que j’aime aussi peu que vous ^^) de l’instantanéité de l’information, la plupart des gens ne suivent l’information qu’au jour le jour.



De ce fait, les risques à mon sens d’avoir un contenu majoritairement réservé est que…





  1. Les nouveaux lecteurs potentiels arrivent par Google Actus ou similaires, soit les moteurs listant tous les contenus d’actualités, voient les titres, cliquent, et se retrouvent coincés par le fait que c’est par abonnement.

    Et repartent aussi sec en mode “sont relous je vais pas m’abonner” sans prendre le temps a) ni de lire votre page expliquant votre choix et vos valeurs (faut pas se leurrer, quelqu’un qui découvre le site par hasard n’en aura généralement rien à foutre) b) ni de repérer que le contenu sera librement accessible plus tard.

    Et quand bien même, je pense que la majorité des gens ne prendra pas la peine de “marquer” le contenu d’une manière ou d’une autre pour le lire plus tard.

    Dit autrement, vous risquez fort de diminuer le flux des nouveaux arrivants par le canal “anonyme”.



  2. Les nouveaux lecteurs potentiels qui arrivent par les moteurs de recherche, parce qu’ils étaient en quête d’information sur un sujet précis, vont eux profiter de vos dossiers et autres articles de profondeur sans avoir à débourser quoi que ce soit, alors que, s’agissant de sujets précis qui les intéressent, eux auraient àma un peu plus de facilité à contribuer à hauteur de quelques euros.

    (Je pense notamment à des étudiants ou chercheurs désireux d’étoffer les sources d’un sujet technique/politique touchant à l’informatique un peu ancien).

    Dit autrement, vous ne profitez pas de la valeur ajoutée perpétuellement croissante de votre base documentaire (qui, soit dit en passant, profiterait bien de grosses améliorations sur le moteur de recherche, mais c’est un autre sujet). :)



    De ce fait, je me serais plutôt attendu à ce que vous partiez sur une valorisation du fonds documentaire tout en gardant un ratio 23 - 13 sur les contenus du jour.

    &nbsp;

    Bref, vous avez certainement évalué plein de modèles différents et sans doute testé le marché, et&nbsp; considérez probablement que le bouche à oreille (et équivalents en réseaux sociaux) suffiront à nourrir une base d’utilisateurs faible en quantité absolue mais “solide” en flux financier.

    Mais je tenais à partager mes craintes et, à défaut de solution miracle, vous proposer…



    a) De mettre un peu plus en valeur le fait que le contenu sera accessible gratuitement au bout d’un temps.

    Par exemple vous pourriez tester quelque chose de ce genre…

    “Ce contenu est actuellement réservé à nos abonnés. Il sera lisible dans environ X jours. Rejoignez-nous pour en profiter immédiatement !”. Et en dessous…

    “Pourquoi payer s’il me suffirait d’attendre ?” avec le lien vers votre page explicative.



    Vous mettez ainsi immédiatement en valeur un de vos différenciateurs clés par rapport à la masse (pas de rétention indéfinie du contenu), et vous aiguisez la curiosité du lecteur, qui aura (peut-être ? <img data-src=" />) une incitation plus forte à prendre le temps de lire les conditions d’abonnement.



    b) Sur la page explicative, rajouter juste un court paragraphe expliquant le sens de votre démarche : la page actuelle est efficace et concise, mais tout le monde n’est pas intéressé par les différentes options : “masquer les pubs” ça parle à tout le monde. En revanche, les flux RSS sont peu usités, “désactiver les modules sociaux” et “accéder à tous les thèmes” sont des options qui ne parleront qu’aux gens du milieu informatique ou du moins férus de technologie…

    En revanche, la volonté de défendre une déontologie et une démarche journalistique particulière, ça parle à tout le monde, sans prérequis de connaissances techniques. :)

    &nbsp;

    c) Si vous partez sur un ratio plus élevé de contenu abonné et un rallongement de la durée moyenne de rétention, proposer, plutôt que (ou en plus d’)un accès 48h pour 1 euro (ou en plus), un accès complet GRATUIT pendant genre 30mn lorsque le visiteur s’inscrit. Pourquoi ?

    Ce que je vais dire sera peut-être contredit par la réalité : c’est vous qui avez les chiffres, donc peut-être constatez-vous un fort taux de conversion -ou du moins une proportion forte des revenus provenant de “one-shot” de ce type…&nbsp;

    Mais à mon sens, toujours dans l’optique de “je suis un lecteur lambda je découvre le site et je veux être sûr de la qualité avant de payer”, la démarche actuelle requiert un double effort : s’inscrire, et payer (effort plus complexe pour des gens frileux à l’idée de payer sur internet - ça existe encore je vous assure ^^). Sans avoir de garantie, derrière, d’être satisfait par le contenu pour lequel j’ai finalement choisi de payer.

    Je pourrais bien sûr, avant de payer, parcourir/chercher sur le site d’autres contenus pour me faire une idée, mais ça revient à contourner la barrière A pour prendre la barrière B.

    Avoir un accès de 30mn me permet de juger directement sur le contenu qui m’intéressait au premier chef.

    Bien sûr, les risques d’une telle approche…

    * Spam de comptes gratuits par la même personne pour abuser des 30mn ? Ça me paraît assez peu probable (dans les faits, je suppose que vous contrôlez déjà ce risque puisque la création d’un compte a toujours été gratuite. Puis c’est vraiment galérien comme méthode, je pense que le mec prêt à faire ça n’aurait de toute manière jamais lâché un centime).&nbsp;

    * Perte de revenus potentiels, de la part du public “éphémère” (les gens qui sont tombés sur le site pour un contenu particulier mais que la ligne éditoriale n’intéresse pas) : vous seuls pouvez avoir une idée du volume que ça peut actuellement représenter.



    Mais si vous partez du principe que vous visez essentiellement le public motivé et par la qualité et par une démarche de soutien, vous facilitez un peu plus l’acquisition de ce public puisqu’il va pouvoir vérifier par lui-même que votre contenu l’intéresse avant même de devoir payer.

    &nbsp;

    d) Envisager un chantier visant à améliorer l’exploitation du fonds documentaire (cf ce que je disais plus haut). Notamment en mettant en place une recherche par facettes (personnellement, je serais prêt à vous aider s’il fallait faire une passe sur les contenus pour les qualifier par différents mots-clés, et je pense que d’autres seraient également disposer à mener ce genre de tâche de fond en mode communautaire).

    Actuellement le moteur interne est vraiment insuffisant, et c’est dommage vu tous les contenus dont vous disposez.



    e) (là je rêve) : pour nous abonnés mégalomanes, trouver un moyen de conserver les commentaires pour les anciens contenus. XD



    Sorry pour le pavé, merci d’avance pour la lecture. :) <img data-src=" />

    Et quoiqu’il arrive, longue vie à NXI. <img data-src=" />

    &nbsp;

    &nbsp;

Le 01/04/2017 à 11h 49

Je plussoie, c’est mon opinion également.

On utilise le 1er avril pour tâter l’eau sur plein d’idées dont on hésite, pour les qualifier chacune, entre “loufoque”, “débile” ou “géniale”.



If “enthousiasme” = TRUE {

&nbsp; print “GOGOGO!!! on est chaud merci pour votre soutien !” ;}

else {

&nbsp; print “Non, mais, c’était clairement un poisson d’avril. Vous y avez cru ? Vraiment ? Rhôôôôôô… XD”;

&nbsp;}



<img data-src=" /><img data-src=" />

Le 27/03/2017 à 12h 38

Ah ça nous sommes complètement d’accord, les CPU AMD tiennent bien mieux la route que ce que certains veulent faire croire… :)

Le 26/03/2017 à 12h 27

OUais ouais, Dice a bien codé Battlefield 3, le jeu qui a souffert de bugs anodins de type “je saute une barrière = le jeu crashe” ou un netcode exemplaire de type “le mec que je snipais depuis 100m s’est téléporté devant moi pour me buter au couteau, tout va bien tout est normal”… <img data-src=" />



Faut arrêter, soit tu as acheté le jeu plus d’un an après sa sortie initiale, soit tu es un fanboy aveugle… XD

Dice n’a JAMAIS SU CODER PROPREMENT UN JEU pour la sortie. Il leur faut toujours à peu près entre 6 mois et un an pour le rendre jouable. Vérifié sur B3 et B4, pas acheté le B1 (le foutage de gueule du dlc me restera toujours en travers de la gorge).



(Ah moins que je ne confonde avec le 4, mais il ne me semble vraiment pas. <img data-src=" />)

Le 25/03/2017 à 13h 43

Euh, je t’en prie, ne reporte pas sur la communauté des développeurs (ou des constructeurs de CPU/GPU le cas échéant) une erreur qui te revient à 100%.



TU AS ACHETE UN JEU EA.

Il n’y a rien à rajouter… <img data-src=" /> (<img data-src=" /> mais c’est vrai que t’as pris le pire exemple qui soit : DICE n’a jamais su coder autrement qu’avec les pieds, un peu comme Bethesda mais en largement pire).

Le 24/03/2017 à 13h 29

A voir…

Je serais tenté de dire que si tu achètes un proc pour au moins 4 ans, autant monter en gamme une fois pour toutes.

Cela dit, je t’invite auparavant à aller consulter les tests pour voir dans quelle mesure les deux coeurs supplémentaires seraient exploités, peut-être auras-tu des surprises, ou pas (au moins Blender est bien multithreadé me semble-t-il les autres je ne les connais pas).









Charly32 a écrit :



Je pense qu’il parlait surtout des i7 sur socket 2011.



Le 7700k est actuellement et globalement le CPU le plus rapide en jeu,

payer plus cher n’apportera plus de perfs que dans certains jeux,

capable de tirer partie de plus de 4 cœurs.

(je parle “out of the box”, donc hors OC)



Enfin toujours pareil, il est meilleur actuellement.

Si tu achètes un proc pour le garder 4 ans ou plus, tu peux largement parier sur le fait que dans trois ans la cible du dev ce sera 4 ou X coeurs. :)

Par ailleus n’oublions pas que mis à part certains types de jeux (simulation type Space Engineers, 4X type Civilization), le CPU n’a qu’un rôle limité par rapport à la carte graphique (course, FPS, RPG, etc).

Donc à moins d’être passionné d’un genre précis pour lequel le CPU est le facteur le plus important, tu peux très bien supporter d’avoir un CPU qui t’apporte 10% en moins de FPS sur le jeu actuellement, mais qui sera largement plus pérenne dans les années à venir (en plus du confort au quotidien, notamment pour les streameurs, voir l’article de JVC).


Le 23/03/2017 à 11h 02

Non. Sous Steam, tu peux juste soit laisser Steam installer automatiquement la dernière version, soit la différer au moment où tu voulais lancer le jeu.



 Il n'y a absolument aucun moyen de dire "NON, je ne veux PAS d'update DU TOUT".        






Et c'est un avantage décisif quand tu sais que la nouvelle version va te bloquer le jeu pendant des plombes (débit pourri), ou risque de planter (retours utilisateurs), pour citer les deux raisons les plus courantes...      






 Le troll, c'est toi. Aller râler contre une boîte qui a été pionnière et qui lutte en ayant 100 fois moins de ressources, au lieu d'attendre patiemment qu'ils finissent le fonctionnel pour ensuite s'intéresser au portage...       

Peu importe que tu l'utilises depuis le début ou pas, tu ne sembles pas saisir le contexte pour autant.






Bien sûr que Steam a énormément fait (et continue à faire) pour Linux. Actuellement ils font d'ailleurs largement plus que Gog effectivement. Mais ce sont deux cas différents, avec des moyens et des intentions derrière qui n'ont rien à voir.     





Et GOG, c’était un marché ultra-niche à ses débuts, c’est encore un marché de niche parce que la proportion de jeux récents et AAA y est encore dérisoire, mais ça commence à changer. Et plus les gens prendront le réflexe d’acheter d’abord sur GOG quand un jeu y est, plus la plate-forme prendra de l’ampleur.

Le 23/03/2017 à 10h 19

Pour ceux qui râlent que l’on vante un client “sans DRM” qui n’est pas sous Linux…

Renseignez-vous avant de râler !!!



GOG a toujours poussé le jeu sans DRM multiplates-formes. Ils n’ont juste évidemment pas la masse financière de Steam (à vue de nez minimum 100 fois moins de budget), donc ils font une étape à la fois. Quand le client Windows sera finalisé et (normalement) servira de nouveau levier de traction pour étendre la base utilisateurs, ils pourront s’attaquer à faire une version Linux.



Franchement, aller chouiner contre la plate-forme qui a été la première à s’attaquer aux barrières de tout poil… Faut vraiment être ignare… <img data-src=" />



Et sinon, le client GOG, rappelons-le, a UN avantage décisif sur Steam : tu peux choisir la version du jeu à laquelle jouer (donc tu peux rester “bloqué” aussi longtemps que nécessaire. Et sur certains jeux perso ça m’aurait bien aidé).

Le 21/03/2017 à 12h 51







brazomyna a écrit :



Les bandes de fréquences plus basses portent plus loin et traversent mieux les

murs (et autres obstacles). Par contre, elles écoulent moins de

traffic. Donc en zone très dense, centre villes, etc il vaut mieux des

bandes ‘hautes’ où l’on va multiplier les antennes pour faire face à

l’afflux de connexions. C’est l’inverse dans les zones moins denses (à

la campagne), où il vaut mieux des antennes qui portent loin pour pas

avoir à multiplier le nombre d’antennes.











Bulldozer a écrit :



@citan666

C’est le 700 MHz, mais ce n’est pas encore disponible partout.









&nbsp;D’où l’intérêt d’avoir quelqu’un dont les connaissances sont à jour (et non pas les restes d’une mémoire embrumée <img data-src=" />). Merci pour les corrections. <img data-src=" /> <img data-src=" />


Le 21/03/2017 à 10h 22

Eh oui, quoiqu’en disent les opérateurs historiques (même si j’avoue que faudrait arrêter la guerre des prix un moment car les bénéfices finiront par être insuffisants s’ils continuent à ce rythme XD) l’arrivée de Free Mobile a été plus que salutaire sur notre marché.



Merci à Free. <img data-src=" />



Pour ceux qui se plaignent que le réseau de Free est pourri, il existe des sites permettant de consulter l’état d’infrastructure de tous les opérateurs. Vous pourrez donc voir si et quand Free couvrira votre zone de manière efficace. Disclaimer : pour l’instant en dehors des grandes villes, pas de doute c’est la zone. ^^



Également, il faut savoir qu’il y a une bande réseau dont ne dispose pas Free (la 800 Mhz de mémoire qu’on me corrige si je me trompe) et qui est plus couramment utilisée en campagne car elle porte mieux mais traverse moins bien les murs (là encore je dis de tête ^^).



Donc si vous êtes plutôt en campagne, faut pas avoir trop d’espoir. <img data-src=" />



Pour ma part à Toulouse je suis en 4g presque partout, et y compris chez moi, avec un bon débit. Si je n’avais pas eu la fibre, j’aurais sérieusement réfléchi à résilier l’abo fixe pour n’utiliser que la 4G Free en accès principal pour tout dire…

Le 16/03/2017 à 13h 29

Mon conseil : tant que tu es satisfait des performances de ton pc, ne te prends pas la tête. <img data-src=" />

Le 16/03/2017 à 13h 28

Tout à fait ! <img data-src=" />

Genre des gens qui cumulent un navigateur avec plusieurs centaines d’onglets, une ou deux vm qui tournent en permanence, plus deux trois serveurs locaux de multimédia. Et qui aimeraient parfois lancer un jeu aussi… <img data-src=" />

Le 16/03/2017 à 12h 16

Ouaip, c’est d’ailleurs bien dommage… <img data-src=" />

Le 06/03/2017 à 22h 42

On a déjà eu ce débat (ou bien était-ce avec quelqu’un d’autre), je pense qu’il est inutile de le relancer. <img data-src=" />

Le 06/03/2017 à 22h 38

Oui tout à fait.

Effectivement mieux vaut ne pas compter sur un vrai support avant l’arrivée des distributions de fin d’année. Mais après ça roule.

Pareil pour les GPU à venir. Il ne faudra sans doute pas compter sur un support complet de Vega avant fin d’année, en revanche, les cartes seront reconnues out of the box avec tout le minimum nécessaire au bon fonctionnement d’une carte graphique. :)



Après excuse-moi je me suis sans doute mal exprimé.

AMD ne propose pas de bons pilotes “depuis 3 ans”. Ils ont mis en place une nouvelle stratégie il y a 2-3 ans, et les premiers effets concrets ne sont arrivés qu’il y a 3-4 mois avec la nouvelle pile de pilotes “hybrides” (en gros, avant t’avait un blob 100% binaire proprio fermé. Maintenant ils proposent un blob en partie open source, mais pas complètement car ils préservent des choses liées aux secrets industriels).

Seules les distributions les plus récentes (ou celles qui font du rolling release, soit mise à jour permanente de tous les paquets -au risque d’instabilités) te permettent d’en profiter.



Et il y a encore masse de boulot, raison pour laquell tu ne pourras décemment t’appuyer sur leurs pilotes qu’en fin d’année.

Le 06/03/2017 à 11h 27







Naneday a écrit :



Perso j’en veux pour mon argent, je fait pas de la charité pour des multinationales qui fillent tout leurs fric a leurs actionnaires, c’est leur probleme s’ils se sont couché derriere Intel pendant des années





Wow… Rarement lu un commentaire aussi crétin (ou révélant une telle ignorance crasse, au choix). On n’est pourtant pas vendredi ???


Le 06/03/2017 à 11h 25

Heu, je ne sais pas bien où tu t’es renseigné mais àmha t’es gravement à côté de la plaque.

AMD a défini une véritable stratégie d’ouverture/intégration à GNU/Linux depuis 3 ans, dont on voit les premiers effets au niveau des pilotes de cartes graphiques.



Il est évident que si tu prends aujourd’hui même un Ryzen, mais que tu n’as pas l’habitude de compiler ton noyau, tu vas être un peu emmerdé.

Mais il est tout aussi évident que le support de Ryzen sous Linux sera complet avant la fin de l’année 2017. Idem pour les cartes graphiques (si tu veux des détails je t’invite à aller fouiller les news relatives sur le site Phoronix).



Donc, si tu veux acheter un CPU dans l’optique de le garder plus d’un an (ce que je suppose, la durée de vie des CPU aujourd’hui c’est minimum 4 ans, jusqu’à 8 selon tes besoins) c’est au contraire vers AMD qu’il faut te tourner. Parce que eux ont désormais intégré Linux dans leur plan de développement, donc ils vont faire bien plus d’efforts pour fournir des pilotes de qualités pour leurs CPU et GPU actuels et à venir comparativement aux deux autres (à moins qu’Intel et Nvidia fassent évoluer leur position eux aussi, mais àma ce ne sera pas avant 2018 au mieux).

Le 06/03/2017 à 11h 20

Un grand fucking merci à toi pour ce coup de gueule !! <img data-src=" /> <img data-src=" />

Marre de lire les coms de gens qui se comportent comme des mômes capricieux de 5 ans. À un moment donné il faut prendre ses responsabilités de consommateur aussi. SURTOUT quand la différence “qualitative” effective est extrêmement faible actuellement, et changera de sens d’ici quelques années quand le massivement multithread sera plus généralisé.



Comme tu le dis si bien, les processeurs actuels, on les garde des années, par rapport aux années 90 où les sauts technologiques étaient tels qu’on était tenté de renouveler tous les 1-2 ans.

C’est LE moment d’agir dans l’intérêt aussi bien général que particulier, mais il faut effectivement activer ses neurones pour s’en rendre compte…



À croire que le court-termisme de merde qui sévit dans notre sphère politique depuis des années et nous enlise lentement mais sûrement, a fini par contaminer les citoyens… <img data-src=" />

Le 06/03/2017 à 12h 06

Ce serait éventuellement bien de prendre le temps de lire les coms avant de réagir… <img data-src=" />



 D'une je ne parlais pas de moi en particulier, mais des gens dans mon entourage dont j'ai pu constater les craintes.        






 De deux, c'est PRÉCISÉMENT PARCE QUE C'EST DUR À CRAQUER que ça leur pose problème, parce que ce qu'ils craignent ce n'est pas qu'on leur vole leur données c'est que EUX-MÊMES perdent leur mot de passe et se retrouvent coincés (tu sais, les gens qui ont déjà du mal à ne pas noter un mot de passe relativement simple sur un bout de papier ou un post-it à côté de l'écran).        






 Bref, tu as les yeux à côté des trous ou la tête dans le cul, au choix (en plus d'être de toute évidence complètement ignorant du delta entre ta pratique informatique d'amateur éclairé et celles des gens normaux qui, à tort ou raison, ne veulent pas apprendre). :mdr::byebye:

Le 06/03/2017 à 09h 38

Très bonne initiative.

Cela dit, à mon sens le blocage qu’ont beaucoup de gens vis-à-vis du chiffrement systématique n’est même pas l’aspect technique (processus à suivre pour chiffrer/déchiffrer) mais plutôt la peur d’une mauvaise gestion de mot de passe : un facile qui risque d’être craqué ? Ou un difficile, mais comment s’en souvenir ou le stocker de manière fiable et sécurisée ?



Parce qu’il y a bien un truc que les gens pigent, c’est que si tu as fait un bon chiffrement, et que derrière pour x raison tu n’as plus “accès” au mot de passe, t’es baisé pour un bon moment (au moins plusieurs années XD)… Et vu qu’à priori les données tu les as chiffrées parce qu’elles étaient importantes pour toi, c’est rageant…

Le 06/03/2017 à 10h 43

Ce que tu sembles ne pas comprendre dans notre point de vue, c’est que nous non plus on ne s’amuse pas à réinstaller un système tous les jours. <img data-src=" />



Le fait est, simplement, que lorsqu’on doit le faire pour X raisons, on est bien contents de pouvoir le faire en un minimum de temps et pour un minimum de risques. <img data-src=" />



Là par exemple, j’ai deux Linux en parallèle, l’ancien et le nouveau. Je garde l’ancien pour le moment car ça me permet d’avoir immédiatement un système fonctionnel si le nouveau crashe pour x raison, et inversement.

Bien sûr, tu peux aussi avoir juste une clé avec un Live-Linux dessus, mais à moins d’y avoir passé des heures pour la personnaliser, ce n’est pas le même confort: pas forcément tous les logiciels, ou de config serveur, etc.



Et pour le redimensionnement des partitions, LVM fait ça bien (je ne sais juste pas si une partition gérée “à travers” LVM est lisible par tous les outils d’analyse/récup de systèmes de fichiers ext et autres, mais je suppose que oui).



Bref oui ce sont des usages assez sporadiques, voire de niche, mais quand ça tombe, avoir un /home séparé te fait gagner pas mal de temps. Et vu que, contrairement au /home, la taille de / est assez facile à calibrer, il suffit de faire une partition / de 25 Go (histoire d’être laaaaarge), et une autre partition qui fait tout le reste de ton disque moins 15 Go (histoire d’avoir de quoi installer un système basique au cas où, ou une partition d’échange avec Windows -encore que maintenant l’écriture sur NTFS est très fiable donc pas spécialement nécessaire-).

Le 03/03/2017 à 12h 49

Sauf qu’en vrai, non, le seul et unique but d’une société n’a jamais été de “faire des bénéfices”. Mais simplement de vivre. Et on vit en proposant des produits ou services susceptibles de plaire à un public, à un prix qui permet de dégager une marge suffisante pour continuer le cercle vertueux de l’offre.




Le bénéfice ne doit être qu'une composante (importante, certes) de la stratégie de direction.      






Toute entreprise qui vise le bénéfice comme fin en soi finit par se casser les dents, soit par elle-même (implosion brutale ou érosion dans le temps des compétences, immobilisme produit ou commercial, inadéquation de l'offre avec les attentes clients), soit par l'émergence de concurrents plus qualitatifs ou d'un tournant technique que d'autres sauront prendre.      





Parce que viser le bénéf comme fin en soi, ça veut dire mettre le profit en priorité au détriment de toute autre considération, à commencer par les attentes du marché. ^^




Ça ne se voit pas forcément tout de suite dans le cas d'entreprises qui avaient accumulé un tas d'or confortable, mais la tendance est inévitable. Sauf à arriver sur un marché avec tellement de trésorerie d'avance qu'on peut juste étouffer la concurrence par le seul poids financier, et encore (MS a tenté ça avec les consoles, il n'a finalement jamais réussi ^^) et se retrouver en position hégémonique.     






Ça peut se voir aussi de manière plus immédiate dans le contexte d'un produit ou service particulier (bisous à tous les MMO P2W :smack: et à Evolve, pour citer des exemples que tout le monde connaît).

Le 03/03/2017 à 10h 31

@Kevin… “Malgré cela, la part d’utilisateurs de Linux sur Steam continue de se

réduire comme peau de chagrin. En février, seuls 0,75 % des adeptes de

Steam (-0,05 point en un mois) s’y connectaient en utilisant une machine

sous Linux,&nbsp;Ubuntu 16.04.1 LTS 64 bit étant la distribution la plus

populaire avec une part de marché de… 0,18 %.”

Te rends-tu compte que tu introduis possiblement une fausse idée par cette formulation?

La proportion d’utilisateurs sous Linux par rapport à la masse totale de Steam est en diminution, certes, mais la masse totale d’utilisateurs de Steam est en croissance soutenue !!



De ce fait, il est fort possible (voire probable) que 0,78100(n) est supérieur à 0,98100(n-1).

Note que je t’aurais bien donné des sources chiffrées, mais apparemment Steam ne communique que sur le pic d’utilisateurs simultanés (bonne indication mais nettement insuffisant malgré tout), pas réussi à trouver de chiffres sur le nombre d’utilisateurs enregistrés…