Hmmm. Je suis certain de l’avoir déjà vu ce message. Je ne suis pas un fan de la “latest update”. C’était juste une ré-init il y a quelques semaines. C’est peut être un test en aveugle pour vérification de bon fonctionnement. En tout cas je m’en souvient très bien. Ca étonne assurément de voir ce genre de chose.
Je pense que cela remonte a un peu plus longtemps que “Microsoft teste actuellement un mécanisme assez spécial dans les dernières préversions de Windows 10”.
Ca pose aussi la question de la maîtrise des systèmes. Est ce que l’utilisateur est bien le maître à bord?
“Ainsi, il sera possible de réaliser un cliché exploitant bien plus de
rayons de lumière que pour le rendu effectué en temps réel. La
fonctionnalité AI Up-res se chargera de son côté d’augmenter la
définition de l’image finale jusqu’à 8K depuis du 1080p.”
Ou comment faciliter le travail des magazines de jeu peu scrupuleux (comme les éditeurs de jeux). Ça va être burlesque la différence entre le sreenshot et la réalité. Et toujours avec l’excuse que c’est pas fait sur la même machine… bref ca change pas.
Hé oui ! On n’avait gagné que deux mois de sursis pour les vacances, en réalité…
Mais tu sais : si jamais le Parlement européen devait confirmer son refus de juillet, tu peux être sûr que les vrais voleurs de la culture (les SACEM, SCPP, SACD et autres équivalents européens) ne cesseront de revenir à la charge tant qu’ils n’auront pas eu la peau d’Internet (leur unique objectif depuis 20 ans). Et là, ils sont plus proches que jamais de l’emporter enfin…
Ho que non il ne veulent pas la peau de l’internet. Tuer internet c’est laisser le darknet prendre le pas. Le souhait des états et de ce genre d’organismes c’est le contrôle. En gros la télé 2.0. Mais certainement pas de le tuer.
En gros on préfère que tu fasses un tour dans wonderland qui a un goût d’aspartame plutôt que tu te fasses ton internet à toi…
L’efficacité de Turing ferait donc bien la différence. Avec un prix en hausse de 66 %, c’était bien la moindre des choses à attendre. On se demanderait presque pourquoi NVIDIA n’en a pas parlé plus tôt.
Parce qu’il doit y avoir un lapin farceur qui une fois découvert fera passer le prix des cartes comme quelque chose d’obscène (quoique ça l’est déjà un peu).
Et effectivement ca sent le NDA a plein nez. Donc maîtrise de la com’, donc manipulation.
Laaaapin… wait for it…
Laaaapin… wait for it…
Laaaapin… wait for it…
HerrFrance a écrit :
Ca reste très étrange comme manière de communiquer. J’ai hâte de voir les tests (fait par vous ;) ) mais à ces tarifs, c’est hors de question que j’y pense pour ma future machine.
Je regarderai soit la génération précédente si elle est encore vendue, soit chez les rouges avec Navi (je regretterai peut être PhysX par contre, c’est un gadget mais je l’aime bien celui-là)…
Pas tant que ça. L’époque des vendeurs d’élixir de jouvence n’est pas si loin après tout. Le procédé reste le même. Vendre tant que personne n’en sait trop.
Il faut bien avouer qu’un dispositif incluant de nouvelles technologies dont une dizaine de jeux (pas forcément des nouveautés en plus) profitent pose un défi. Mais en plus si physX disparaît; qu’en est il des jeux qui l’utilisent à outrance ?
gjdass a écrit :
Sans avoir les configs utilisées, ça s’appelle un coup de com’ inutile (et injustifié) histoire de voir à nouveau des articles en front page de tous les sites d’actu … Dans le fond sont pas si mauvais que ça les marketeux " /> Dans 2j ils publieront encore un détail ou deux.
Pas faux.
J’imagine que c’est une sortie en été pour laisser le temps de distiller l’information; d’en faire des tolés / trolls / mea-culpas sur 3 mois. Et surtout de capter un max à la Noël avec quelques sorties supplémentaires pour compléter la gamme (et achever la concurrence).
Même si AMD sort un truc fin T3, début T4, ils auront un train de retard. AMD sera contré immédiatement par les nouvelles sorties NVIDIA qui raviveront l’éclat de ce dernier. Il sera plus présent dans les têtes. Noël sera très probablement NVidia plus qu’AMD.
eglyn a écrit :
J’ai du mal à voir l’intérêt de l’antialiasing en 4k " />
Il en faut quand même. Si tu as des lignes très contrastées (noir / blanc) même en haute résolution ça se voit. Ce qui me semble plus douteux c’est la méthode.
En charge, au repos ça ne consomme que quelques watts.
Oui bon à une centrale nucléaire près. On va pas chipoter.
Charly32 a écrit :
En soit, ni l’un ni l’autre, c’est un TDP, à savoir la quantité de chaleur que le rad doit évacuer pour que le produit fonctionne en mode nominal. Et là, chaque fondeur y va de sa petite sauce pour le définir (surtout avec les mécanismes de gestion dynamique de la fréquence en fonction de la consommation, les fameux “turbos”).
Sur le tableau je vois marqué “puissance”. Pour moi ça veut dire “consommation” et non “TDP”. Et quand on veut dire TDP… on écrit TDP…
De toutes façons dans les deux cas il devrait y avoir un étalon “bureautique” et “Charge Max”. Quand ce n’est pas annoncé d’office… on peut s’attendre à des surprises.
Le
21/08/2018 à
10h
41
Hmmm entre 150 et 250watts…
C’est plus que : mon PC en mode bureautique + moniteur@140Hz + box/switch + 2 NAS allumés et mon ampli (pour du bon son). La je suis à 200 Watts pour tout ça.
Du coup la question par rapport au tableau c’est: Est-ce la consommation en mode repos ? ou en pleine charge ?
Oui bon déjà il a dit un gros BS. Le coup des “bounding boxes” est vieux comme le monde. Ce n’est pas un gros effort mathématique en soit. Il y a bien plus difficile.
Ensuite il faut surtout voir comment seront implémentées ces choses chez les autres constructeurs. La puce; si elle se retrouve avec une RAM pourrie sur la carte vidéo, ça n’ira pas bien loin. Il faut aussi des bus “capable” sur ces cartes. Et je me dis que du constructeur qui fera l’impasse sur X ou Y sera pas nouveau. Bref Note mentale pour gamer : Lire des benchmark avant de faire quoique ce soit.
Et enfin que requiert ce genre de carte? Ca me fait penser au bon vieux “RAM bottleneck”. Les gens s’achètent de gros CPU tout en faisant l’impasse sur de la bonne RAM. Résultat le CPU il passe son temps à attendre la RAM. Pour en revenir au cartes, bin si la carte mère suit pas ou que la RAM ne le fait pas non plus…
Vu la grille tarifaire, peut-être faut-il ne pas se précipiter. Bon ca va être dur pour les gamers mais bon.
Bref le show est bien foutu mais c’est pas un banc d’essai en soit. Wait & see.
sans parler de la longueur des “ray”, un rebond équivaut un à nouveau “ray” et de tt façon il faut un bon paquet de sample par pixel pour avoir un rendu correct, donc bon on est pas prêt d’avoir du ray tracing en real time ( RT RT ? ) pour le grand public ( même si avec le denoising et le rendu mixte on s’approche de qqc )
Et c’est la que les gamer vont confondre. “i’sont Kons Ses gamerz” mais bon ils s’en foutent. Avec la mémoire de poisson rouge qu’ils ont, ils ne s’en rendent pas compte.
Drepanocytose a écrit :
Personne ne tique sur le nom de l’archi ? Turing, ça envoie du rêve…
Bin c’est le propre des vendeurs de cartes vidéo non ?
Le
14/08/2018 à
13h
49
Le nombre de RT Cores n’est d’ailleurs pas évoqué par NVIDIA, qui préfère dans ses caractéristiques techniques évoquer la quantité de millions de rayons (GigaRays) pouvant être traités chaque seconde. Pour une Quadro RTX 8000, c’est dix. Une puissance de calcul annoncée comme 30x celle d’un processeur (sans détails) ou 25x celle de la génération Pascal.
Hmm ont-il donné la longueur de ces rayons ou plus simplement le nombre de rebond moyen ? Car il est facile de siffler avec le “giga” comme unité mais bon dans une scène simple c’est déjà pas forcément couru d’avance (en fait bien loin de la). Alors avec des matériaux transparents/translucides et avec de la rugosité (réflexion, réfraction, diffraction) même avec un nombre réduit de rebond c’est déjà bien moins simple (en fait un cauchemar géométrique et gourmand en mémoire).
Tu pars du principe que c’est au constructeur de dire combien de temps tu pourras utiliser le matériel, je pense qu’à partir de ça nous n’avons plus rien à nous dire.
Pour info, OpenBSD est un Unix, il n’y a pas de meta-package pour installer le pilote pour carte graphique, tu installes directement le pilote point. Tout ne tourne pas autour d’Ubuntu/Debian. Et quant à ta plainte sur les développeurs de pilotes libre… c’est carrément déplacé, continue de troller dans ton coin je suis pas intéressé.
C’est pas beau de mettre des mots qu’ils n’ont pas dit dans la bouche des gens. Je ne cautionne en rien la chose. Je relate une observation que visiblement tu n’a pas faite. Aller 1⁄10 pour la tentative de pirouette.
Si tu avais vérifié tu saurais que les anciens pilotes sont toujours disponibles (pour tous les OS supportés). Les interfaces web proposent simplement par défaut pilotes les plus récent. Parce que statistiquement ces ceux-la qui colleront le mieux dans l’état du marché à ce moment. Une carte vidéo vielle de +5ans c’est plus sur la fin de vie qu’autre chose. Et pour cause il arrive que souvent la “bécane crame” (Enfin disons que ce serait la première carte vidéo à se faire mettre à genoux). Mais ça c’est une autre histoire.
Ha OpenBSD Le monde du libriste pur et intouchable… Ouais bin y’en a plus d’un qui en est revenu de BSD. Dont moi. Les pilotes sont évidement fournis par le constructeur quand il a envie d’en faire le support. C’est très fluctuant depuis 10 ans suivant la situation de chaque boite. Ce qui est judicieux est de constater que pour un marché de quelques pour cent; ils sont bien gentils de les faire. Le gros du lot donc du marché c’est Windows. Point. Et plus encore : “ils font ce qu’il veulent” et on y peut rien. Donc les brailleries sont inutiles.
Je ne me plaint pas des développeurs d’alternative de pilote libre; je constate seulement le résultat. Fais tourner un cube Compiz et puis bienvenue dans le monde des fumistes. Tu comprendras en essayant.
Enfin bref faire de la récupération de PC et de s’installer du “Libre” c’est bien mais parler d’incompétence des constructeurs sous prétexte que cela ne te plaît pas que le marché ait bougé sur autre chose, Ça c’est du joli trololo. Le monde ne tourne pas autour des “libristes”. Loin de la. Encore heureux.
kane13 a écrit :
Il y a des mails réguliers sur la ML d’openbsd pour dire que le logiciel fonctionne toujours sur des machines qui ont plusieurs décennies. Là par exemple on peut voir la prise en charge pour du matériel avec une architecture peu commune, dont le processeur est à 266 MHz et qui a 64 Mo de RAM :https://www.openbsd.org/landisk.html
Pourtant la dernière version du système (6.3) fonctionne dessus.
Pour Linux, openwrt fait tourner le système sur des machines n’ayant que quelques Mo de RAM, ce qui est pratique pour des routeurs, et pour des systèmes plus généralistes Alpine est un très bon remplaçant pour Ubuntu/Debian, avec des choix bien plus intelligents d’outils de base du système et par conséquent des pré-requis totalement minimes (tu as tout un système avec environnement de bureau pour moins de 500 Mo de disque et 150 Mo de RAM). Voilà voilà.
Mhhm. Une distribution Linux (ou autre “librosité”) est un ensemble taillé pour un besoin. D’où la multitude de distributions. Et rien n’empêche de s’en faire un soit même http://www.linuxfromscratch.org/lfs/)..) Une distribution ira pour un truc mais pas pour l’autre. Dire qu’il y a des choix plus “intelligent” n’est pas malin. L’adéquation entre le système proposé et le besoin est un axe d’analyse plus judicieux.
Le
11/08/2018 à
17h
39
kane13 a écrit :
Exactement, c’est ce que je classe dans “incompétence” et “problème de conception”. Pose-toi la question de pourquoi il n’y a pas ça sur les autres systèmes, tout en supportant quand même tout un tas de cartes avec le même driver qui pèse quelques Mo à tout casser. Pareil, le fait de supprimer “graduellement” des anciens pilotes, c’est juste dire “vous avez acheté cette carte il y a 20 ans, allez, maintenant elle devient inutile, bisou”. Pas malin. Je n’ai jamais dit qu’il n’y avait pas de raison à ce que les pilotes fassent 500Mo, juste des mauvaises.
Oulala tu t’avances beaucoup. (si c’est bien des Unix like dont tu parle) Le fait d’installer ces fameux “méta package” annonce quelques Mo mais pas la taille de ce qu’il y a en dessous (ce qu’il référence). La facture espace disque peut aller bien plus haut que ce qui est annoncé.
Et puis ce n’est pas forcément le pilote fait par le constructeur… Du bricolage dans la catégorie driver il y en a pas mal. Moi qui suis un Compizien fanatique, je peux te l’assurer. Là de la compétence il en manque cruellement. Il y a le vernis de “ça marche pour le principal” mais pas bien plus.
Mais s’il fallait aller plus loin que le “générique” hé bien ces programmes et packages se démultiplieraient comme des petits pain mais se mettraient à gonfler aussi.
Ces pauvres dev du libre à qui on ne donne pas les sources du produit
propriétaire. Les pauvres. Bon d’un autre coté ils pourraient se saisir
d’un debogeur… mais bon…
Deuxièmement les suites logicielles Windows vont s’installer plus complètement par défaut. Les CUDA, les suites X ou Y pour la conversion vidéo, etc… Et oui par défaut sur les “autres systèmes” il faut se fendre de plusieurs Apt-get pour avoir un équivalent qui ressemble à l’original. Et j’ai bien dit “équivalent qui ressemble”. Parfois ca tient plus de la poker Face qu’autre chose.
Pour moi c’est pas franchement comparable.
kane13 a écrit :
Pareil, le fait
de supprimer “graduellement” des anciens pilotes, c’est juste dire “vous
avez acheté cette carte il y a 20 ans, allez, maintenant elle devient
inutile, bisou”. Pas malin. Je n’ai jamais dit qu’il n’y avait pas de
raison à ce que les pilotes fassent 500Mo, juste des mauvaises.
Bah c’est une entreprise qui veut vendre ses nouvelles cartes… Il faut donc faire mourir les anciennes dans une démarche commerciale logique. Je vois pas ou est le problème. C’est même une bonne raison. Et puis faut pas trop se plaindre. Ces pack englobent une série de cartes qui s’étale sur au moins 5 ans voire bien plus pour certaines catégories. Ils pourraient faire bien moins.
Bref. Je ne suis pas convaincu par ta vision des choses.
Le
11/08/2018 à
01h
36
kane13 a écrit :
Vraiment, je le dis haut et fort : progrès ne désigne pas un changement radical de besoin. Ce qui fait qu’aujourd’hui on se retrouve avec des ordinateurs surpuissants c’est principalement pour de la branlette technologique et marketing, ainsi qu’à cause d’une inefficacité liée soit à une incompétence crasse (500 Mo les drivers pour carte graphique sous windows… de qui se moque-t-on ?) soit à de mauvais choix technologiques… et c’est un peu tout. Vouloir des SSD 30 To avec des processeurs 32 cœurs et 50G de RAM pour compenser des erreurs de conception dans les logiciels, c’est risible.
Ce n’est pas forcément une problématique de compétence. En fait plutôt le contraire. Lorsque tu télécharges tes pilotes tu as une fiche qui donne toutes les cartes et / ou générations supportées.
Ce support n’est pas aussi simple du fait de plusieurs facteurs.
Il vaut mieux “shiper” le driver de l’époque qui fonctionne pour une carte ce qui permet de s’affranchir d’un tas de problématiques SAV.
La façon de gérer les pilotes dans Windows impose d’avoir des exécutables signés. Pas la peine de rajouter des signature si pas nécessaire pour le support de carte vieillissante.
Cela permet de progressivement arrêter de “shipper” les pilotes trop vieux graduellement.
Donc c’est plutôt une bonne chose. La BP n’est pas trop un problème (En France en tout cas). Je me souviens d’une époque ou on téléchargeait plusieurs pilotes parce que les informations n’étaient pas complètes et de toutes façons ne pouvaient pas être pour un tas de raison.
Si on prend le cas Nvidia on a un pack à 300 Mo minimum mais ça couvre une tonne de carte… donc ça évite la guignolerie du gars qui ne prendrait pas le bon pilote. Et ça coupe 90% des cas de SAV. Chez les constructteurs on est pas fous. Ils ne feraient pas ce genre de chose sans raison. Après tout ça coûte un peu en bande passante.
La VoLTE en 4G c’est quasiment inutilisable en France (une poignée de Smartphone compatibles, à peine une dizaine je crois) donc en attendant vive la 2G/3G pour les appels (selon sur quoi ça bascule quand on appelle, chez moi c’est variable).
Pour la 5G j’espère au moins que la voix sera prévue dès le départ dans la norme !
Et comme le matos est déjà présent mais pas forcément bien remboursée (dégât, tempête espiègle, éclair farceur). Bin y’a aucune raison de l’enlever du pylône. On change pas une équipe qui gagne.
Le
09/08/2018 à
08h
11
S’il faut tout migrer, j’en connais un ou deux qui vont s’arracher les cheveux…
le matériel vieillissant ne permet pas toujours de jongler avec les fréquences.
Les FHs c’est souvent “la” solution pour la pampa. Donc résoudre un problème qui avait été contourné avec un FH… Et qu’on ne peut pas migrer la fréquence à cause du vieux matériel… Ça va sentir le sapin.
Les référentiels ne sont pas toujours facile à travailler ou bien à jour.
Il se pourrait qu’une ou deux migration coûte bien cher pour le service rendu.
C’est beaucoup trop tôt pour intégrer du ML pour ce types de réglages (batterie, luminosité). On est encore loin de pouvoir faire une IA qui généralise et qui s’adapte vraiment aux situations, donc on va avoir un système très frustrant à chaque fois qu’une nouvelle situation émerge…
Ha le machine learning; rions un peu:
Dans la définition : Trouver une solution même si on a pas suffisamment de données pour traiter et lancer avec un ensemble de réglages disponibles, puis recommencer autant de fois qu’on a un “Fail”.
Dans la réalité d’une application Android: mettre la lumière a fond et si l’utilisateur passe dans le menu du réglage de la luminosité; copier ce dernier paramètre…
Salamandar a écrit :
Les cas à traiter sont très simples (gestion intelligence de la luminosité en fonction de l’heure et du jour). Il y a eu une présentation de ce cas là en vidéo, ça fonctionne vraiment bien.
Ya pas besoin d’une IA qui “généralise”, mais les IA s’adaptent aux situations par définition :p
Ca dépend de qui programme. Et puis quelle approche on a d’un sujet. Le plus souvent on prend un algo qui doit décider et on lui colle un broyeur de données qui fera des tris et va ranger le dico. On est loin de quelque chose d’intelligent.
Les “slices” me font penser à un projet Google qui n’est plus de ce monde qui était le même principe grosso modo. Je crois que c’était Google Reader Cela permettait de ranger et organiser des flux RSS dans une seule page. Du coup c’était pratique.
Bon On sent bien que Google essaie de nous la vendre à sa sauce. La
gestion intelligente de la luminosité est déjà là dans mon GalaxyS8.
Les applis mises en sourdine (sans les fermer pour autant) sont aussi
déjà dans les téléphones disponibles. Le tout sans IA de la mort qui tue. Tout est déjà bien là pas besoin
de passer par le ML. Bref… encore une fausse réinvention de la soupe sans que cela soit meilleur.
Et les gamer pissent sur les éditeurs car chaque années ils veulent nous servir la même soupe… Baisser les cout permet à de nouveau acteur de rentrer dans la danse ce qui permet de créer de la concurrence et d’augmenter le niveau chez tout le monde.
Ha? une revendication???
Alors:
Si c’est la même soupe -> aucun intérêt à avoir des supers fonctionnalités qui feront… la même chose. Les studios ne perdront pas de temps à refaire la soupe. Tu peux relire la thématique des graphisme pourris en sus.
Les gamers on s’en fous. Ils payent toujours de toutes façons .Et surtout ils ne sont qu’une partie du marché. Même du jeu vidéo.
Et justement non les coûts ne baissent pas dans ce genre de choses. On fait de l’ajout de fonctionnalité bien ciblé pour justement faire gonfler la facture à tout niveau et secteur. C’est un secteur IN-DUS-TRI-EL. Vendre plus et plus cher. Donc ce qui est nécessaire ne traînera pas a être acheté (ou breveté) et implémenté. Le reste fera du vent…
Et c’est pour cela que le choix des technologies à implémenter :
Chez les fondeurs sont toujours très sélectifs et pour des choses malléable (ex:CUDA). Et de pouvoir s’assurer de bonnes part de marchés en imposant le produit. ex: Le demi-fight mort-né CUDA/OpenCL. Bref le ROI.
Chez les éditeurs de s’assurer que cela a un véritable intérêt. Le ROI.
Faut se poser la question de savoir qu’est ce qu’il y a vraiment de disponible et qu’est ce qui fait du vent en ce moment.
Dispo
puissance brute montante, ces derniers temps à grand coups de
parallélisme. Comme quoi cette bonne vielle recette d’il y a 40 ans
marche encore. Les vieux pots… la soupe…
Eolien / Marketeux : Tout ce qui touche à l’IA souffle pas mal. Sauf quand un piéton se fait renverser par une voiture “intelligente” pendant que le conducteur tripote sont téléphone mobile.
Le plus drôle c’est que l’évolution des générations aidant on voit le secteur du jeu (puisque tu t’y intéresse) essayer de nouveaux concepts de jeux qui ne nécessitent pas une puissance de bourrin (jeux d’enquête policière en choix multiple ou point & click). Qui ne nécessitent pas non plus de procédé / algo de la mort qui tu (une IA). Ce serait plutôt le contraire en terme de besoin de puissance. En gros on reviendrai à élargir l’offre avec du simili Dragon’s Lair… Mais attends ce serait pas une vieille soupe ça??? donc c’est un nouveau concept d’ancien truc.
Aller finis ta soupe.
skankhunt42 a écrit :
haaaaaaaa tu à
enfin compris ce que je voulais dire. Tu sais à un moment donné
quelqu’un devra bien ce lancer pour implémenter ces techno dans un
produit finit.
Oui bin tu brilles par l’expression. Les implémentations n’ont lieux que sur besoins critiques, identifié et bien cadrés. Si je peux être critique sur l’industrie et certaines de ses méthodes, je lui reconnaît quand même une certaine position terre à terre qui est tout le contraire des gamers hydrocéphale. Quoique c’est un pléonasme.
Encore ce “mythe de l’indie”… Il n’y a pas de petit nouveau qui se lance comme cela. Je voudrai pas casser les rêves mais voila… Ca n’existe pas. Voire l’histoire de la sortie de DX9 et du tas de jeux qui à déboulé exploitant la chose avant même que toutes les docs soit finie d’écrire… Ou pourquoi les console sortent avec des tas de jeux. Comprendre : y’a pas vraiment de hasard. En tout cas il est réduit au maximum… et pourquoi ??? … parce que le ROI.
Le
06/08/2018 à
00h
11
skankhunt42 a écrit :
Au contraire, ça leur permet de baisser les cout ou alors d’avoir plus de détail pour le même prix.
Toujours pas. La puissance est déjà achetée. L’entrepreneur pense plutôt ROI. Donc il va corriger ici ou là des petits trucs mais certainement pas de consacrer un tas de ressource à faire de la R/D avec l’appareil de production. Il produit et attendra un bon moment avant de changer de solution quand ce n’est plus adaptable.
skankhunt42 a écrit :
Ces technologies ont quand même un cout non négligeable…
Idem “ROI first”. “Pas de nécessite de changer, hé bin on continue comme ca”.
skankhunt42 a écrit :
Peut être mais créer un jeu ne ce fait pas en une journée donc tu
pourra très bien attendre 2 / 3 ans avant que ça débarque réellement. Et
encore faut t’il que le matériel puisse suivre sinon il faudra attendre
encore plus longtemps.
Si le rendu à base d’ia ne te permet
que de tourner à 20 fps sur une machine à 10.000€ et que de manière
purement software tu n’a qu’une image par secondes, les deux types de
rendu ne seront pas possible même si certain soft proposeront une
option.
Un peu comme les écran 4k à 120 hz ou actuellement
aucun cg ne peu faire tourner un jeu avec un framerate décent. Mais le
jours ou les cartes seront disponible alors ça sera possible.
Souviens toi que les premier cpu 64 bits grand publique sont quasiment
sortit 10 ans avant le premier windows 64 bit. Il faut laisser du temps
au temps !
Un éditeur de pense pas comme un gamer. Il pense ROI, faisabilité, etc. On ne fait pas un jeu ou un soft dans l’hypothèse d’apparition de nouvelles fonctionnalités. C’est ridicule au mieux. On attends que la chose se démocratise au moins dans le matériel et après… “bin on verra”. Et ils ont gravement raison. Surtout quand on voit la débauche de puissance sous utilisée…
Le
05/08/2018 à
10h
31
skankhunt42 a écrit :
Confusion ; ce n’est pas mon propos. Prenons deux motos dont les performances sont approchantes dans un mouchoir de poche. Ce qui fait la différence c’est le pilote qui est dessus. Dans le monde du jeux vidéo c’est pareil. Des graphismes pourris sur une carte a 500€ c’est toujours des graphismes pourris.
skankhunt42 a écrit :
Ça sert à gagner du temps et donc d’augmenter la qualité de la soupe.
A gagner du temps sur quoi ? A part de la puissance brute y’a pas grand chose à faire si ce n’est de “câbler” de nouveaux algorithmes. Petit spoiler. Les algos sont connus depuis de temps anciens… très anciens même. Et en plus avec des truc comme CUDA on peut se débrouiller sans faire appel au fondeur.
skankhunt42 a écrit :
La façon de mesurer est le cerveau via l’oeuil tout est une question d’illusion,
Donc totalement subjectif et donc incapable de prouver de façon empirique qu’un algo ou une méthode est meilleure, ce qui est ton propos depuis le départ. Les illusions… mais sérieux quoi.. ça fait 40 ans que le jeu vidéo ou les démo-istes ne font que ça.
skankhunt42 a écrit :
c’est comme ça que valve tiens encore le coup avec son
moteur vieillissant.
Hein ?! NON!!! Valve n’a pas “survécu” grâce à son moteur mais plutôt grâce à STEAM !
skankhunt42 a écrit :
c’est que leur soupe demande de bon
artistes qui devront bosser sur des taches répétitives donc pas évident
d’engager.
C’est le gros des effectifs du personnel d’une boite de jeux aujourd’hui. On appelle pas ça des “studios” pour rien.
skankhunt42 a écrit :
Pour faire un rendu 3d d’une image toute bruitée
en basse définition ce qui permet d’économiser des heures de calculs et
la transformé en image toute net en haute résolution et sans bruit.
Ha on passe au “render”.
Et t’as pas l’impression que de passer d’une image basse résolution en haute résolution va la rendre un peu floue et vilaine? Du genre l’aire d’un pixel qui est multipliée au moins par 4… du coup enlever le bruit c’est peut être pas utile hein ?
Bon passons sur l’expression maladroite.
Maintenant si tu parle de rendu; on lance toujours en haute résolution, jamais en basse. Ça permet non seulement d’optimiser l’utilisation des dispositifs mais aussi de pouvoir ensuite avec un travail infographique simple de produire n’importe laquelle des sous-résolutions sans trop se préoccuper du bruit.
Sans compter que de rendre en haute résolution n’est pas forcément plus coûteux en temps si on sait si prendre. C’est le plus rigolo de l’histoire. Plus on monte en résolution plus on peu se permettre de baisser le nombre de “sample” jusqu’à un certain seuil s’entend. L’image livré étant plus petit les filtre 2D suffisent largement. Et à plus forte raison dans l’animation ou l’œil a bien du mal à voir tout ces défauts.
Sans compter l’arrivée des “dé-noisers” en fin de calcul accessible au grand public (comprendre que chez le pro c’est le B-A-BA). D’après mes tests on coupe en 4 le temps pour un rendu de qualité équivalente sous blender. Le seul truc chiant qui reste sont les IOR forts. Mais bon c’est au cas par cas.
skankhunt42 a écrit :
Pixar utilise ce genre d’outil ( source ), je t’invite également à consulter la chaine “two minutes papers sur youtube”, exemple avec cette vidéo.
Pixar :
n’a strictement aucun problème pour monter une “pile de boite à pizza” dans un DataCenter. Que dis-je “une pile”. des travées entières. Nan attends “des pù|4iN de datacenters entier”. Les artistes las bas ont la main haute. Ils en ont carrément rien à foutre de la puissance qu’ils consomment. Et puis il y a toujours le motion blur qui sauve…
ne manque pas une occasion de vanter ses technos histoire de bien les vendre. Il ne fait aucun doute dans les esprits que les films de Disney/Pixar sont des démos technologiques. Enfin j’espère que tu le sais.
Du coups vanter qu’ils font ceci ou cela est carrément logique et n’inspire que l’amoncellement d’un obstacle financier des entrepreneurs qui souhaiteraient acheter de l’image. La négociation sera plus dure.
skankhunt42 a écrit :
Potentiellement l’ia peut
résoudre tout un tas de problème ou tache qui sont vraiment très chiante
pour les humains.
Le problème des gens qui parlent d’IA est que le concret a du mal à sortir. “Potentiellement”; “peut-être”; “et si”.
skankhunt42 a écrit :
Amuse toi à animer un personnage en 3d de manière traditionnelle par exemple, alors qu’avec une ia tu pourrais avoir une très bonne base en rapport du gabarit d’un personnage et une extrapolation entre chaque mouvement pour de la fluidité simplement en te filmant avec un téléphone car l’ia reconnaitra ton volume et tes point de flexions.
Que d’ignorance. Les gabarits existent depuis longtemps et ne sollicitent plus que des copié/collé pour un bipède. Tout bon infographiste / animateur se fera son portfolio et aura son gabarit à lui (c’est un apprentissage aussi). Et c’est valable pour les arthropodes aussi. On profite des acquis de l’expérience. C’est valable pour les artistes comme pour les studios.
Si dans Unreal Engine tu as un “départ” avec des “rig” toute faite c’est juste que cela a bien avancé. Et c’est juste l’intelligence humaine qui l’a fait. Ouais heuu on appelle ça le bon sens, je crois. Les catalogues de modèles (et de tout ce qu’on veut en fait) pour les logiciels de rendu et/ou les moteurs de jeux sont à disposition… Et ça date pas d’hier.
Une société qui fait du MoCap dispose de toutes les technos nécessaires pour réaliser les besoins. Et le plus dur c’est pas les calculs mais le travail des acteurs (ou danseurs). Pas besoin d’IA. C’est déjà là depuis quelques décennies.
Le problème de l’IA c’est qu’on voit trop de gens utiliser le “conditionnel”. “On pourrai”; “on ferai”; “ha si j’étais richeu, lalalalalalallala”. D’un coté on a des ténors du Sigma qui cherchent à faire un petit billet et de l’autre un tas de répéteurs sinon d’hydrocéphales.
C’est sur que cela fait vendeur mais il n’en reste pas moins qu’il faut toujours un opérateur (sinon programmeur) pour paramétrer le “bousin”. On apparente cela au problème du bowling. On sait tout du jeu et de la physique derrière. Mais à chaque lancé un truc différent se passe. Ou qui intervient après un apprentissage foireux ou mal dirigé. Ce qui amène à des réglages qui laissent de moins en moins de choix au “bousin”… bref de moins en moins intelligent au final. Pas de bol Arnold.
J’ai rien contre l’IA mais cela reste encore des marchés qui se cherchent et qui vont tenter tout et n’importe quoi. Surtout l’éolien en ce moment. Ça vente mais ça décoiffe pas. On pourrait presque parler de bulle.
Si on constate une performance supérieure de l’IA par rapport à un algo (et y’a encore un débat sur ou se place le curseur “IA/non-IA), il sera très rapidement intégré. Hors; force est de constater que ce n’est pas la panacée pour le moment.
Le
04/08/2018 à
11h
16
skankhunt42 a écrit :
Tu à des algo à base d’ia avec un minimum de sample en très basse résolution. La lumière dans les jeux est une chose mais pour atteindre le photo réalisme il faudra aussi pouvoir gérer correctement les fluides, la profondeur de champs, les textures, les mouvements et l’intelligence des bots dans les jeux solo.
Sérieusement : Non. C’est déjà fait et surtout cela reste le boulot des artistes et des programmeurs. On a utilisé, on utilise et on utilisera toujours le même genre d’astuces. Ce n’est pas une carte qui fera la différence. Ça ne sert à rien de réinventer la soupe.
skankhunt42 a écrit :
D’après les résultat de certaines expérimentation certains calculs sont possible à 20 fps alors qu’avec une méthode classique il faut plusieurs minutes / heures pour ne calculer qu’une seule image. Ça sera au moins aussi “révolutionnaire” que les soft qui permettent l’accélération matérielle via le gpu et qui est la seule évolution depuis 10 ans en la matière.
Sources? Quel calculs ? Pour faire quoi ? Quelle façon de mesurer ? En gros si je paraphrase “on s’autorise a penser dans les milieux autorisés que peut être éventuellement…”. Bref il ne faudra pas long pour démonter la démo commerciale du vendeur de GPU. Comme toujours…
Joues à un jeu en directX8 et tu va la voir l’évolution. Il y a toujours eu de l’évolution simplement elle a très souvent été compensée par un gros ta de nigauds incultes qui font des jeux en LUA… Et qui finissent par dire “whoeeuu il est pas assez rapide le CPU”…
Le
04/08/2018 à
11h
05
David_L a écrit :
Franchement ça n’a aucun rapport. Surtout que les évolutions de ce côtés seront plutôt sur le remplacement progressif de la rasterisation par le ray tracing.
M’enfin sur le fond le ralentissement outre les questions de gravure, ça venait surtout de l’absence de concurrence.
David_L a écrit :
[…]
On voit déjà des choses possibles, mais ça prendra du temps. L’évolution côté GPU continue d’être forte et reste moins limitée que côté CPU vu que la fréquence et l’archi ne font pas tout, et que même de ce côté on en a encore sous le pied.
Heu. C’est une éventualité mais elle n’est absolument pas nécessaire.
Le ray-tracing est même maintenant sur la sellette. Blender pour ne citer que lui se met à EEVEE qui permettra de carrément visualiser une scène en temps réel… avec le même matériel qu’avant. Bien évidement les matériaux sont un peu “tout fait” (et pas forcément les plus raffinés et complexe) mais ça arrache bien. Et cela couvre une grosse partie des besoins. Cela permet surtout d’avoir un visuel plus rapidement que ce que permettait “Cycles”. Donc au niveau artistique ça aide.
Et comme qui dirait; ces matériaux ressemblent fortement à des “shaders” de jeux… En gros si Blender s’y met c’est qu’ils ne seront pas les seuls. Donc à part de la puissance brute dans les GPUs… C’est surtout les artistes qui devront s’y mettre pour le rendu photoréaliste qui est accessible depuis belle lurette.
Le ray-tracing est surtout un argument commercial à base de bullshit concentré. Certes cela fonctionnera toujours avec les joueurs et les influenceurs Youtbe mais bon. On aura beau faire du ray-tracing que si les artistes nous font des cubes avec des textures pourries… Bin que cela soit en ray-tracing ou en rasterisation cela n’effleurera que peu les sens.
Sinon effectivement cela manquait de concurrence dans le CPU. Mais bon les barrières sont solides. Arriver a du 4.5Ghz en 3 ou 4 décennies… Chapeaux. Sans compter le reste.
Sinon : “présentes à tous les niveau de recherche et de contribution”: un X peut être.
En tant qu’ancien du Télécom Je sais que vous ne l’aurez pas. En tout cas pas la version complète. Loin de la. Surtout le volet emploi. Bon ça ferait rire remarque. Rire jaune s’entend.
C’est comme la fameuse compression du marché en 2007-2008. Tout s’est produit de manière fortuite. Toutes les pièces du puzzle qui composent le décor Telecom d’aujourd’hui sont arrivées pile poil au bon moment en ayant voyagé à la vitesse de la lumière depuis Aldebaran, VY Canis Majoris et Andromède. Un pur hasard nous dit-on.
Quand l’info se cache il ne faut pas trop s’obstiner mais aussi regarder qui a quoi et qui veut quoi.
“Une certitude : refuser d’inscrire la vie privée dans le marbre de la Constitution laisse le sujet entre les seules mains des neuf Sages de la Rue de Montpensier.”
Vous avez oublié “dont l’impartialité ne laisse aucun doute”.
Si y’a un truc qui me saoule vraiment dans les sites tech hardware c’est de :
Mettre une référence d’un produit dans un champ de recherche et de tout trouver sauf le produit en question. Le principe de la pertinence aléatoire me gonfle vraiment surtout quand je me fais suer à récupérer les ID/nom exact de ce maudit hardware. Si y’a bien un truc qui manque c’est une banque de fiches technique digne de ce nom. Surtout avec les “révisions”.
Solution -> en faire une Ce sont des petits efforts réguliers mais au bout d’un moment ça paye. une référence HW bin faut que ca réfère…
Les tests à téléguidage par les constructeurs à peine dissimulés.
Solution -> faire des test à l’envers. De toutes façons c’est pas aujourd’hui qu’on peut aller taquiner les gros du secteur comme Tom’s et consort. Au lieu de tester la carte de manière classique, faire un bon gros test de tout ce qui n’est pas testé chez les autres. Et il y a probablement de la matière.
Ex: Une carte vidéo sait aujourd’hui faire plein de choses et les usages sont plus versatiles qu’on peut le penser. Le support logiciel qui s’y relie doit suivre aussi. Le cas de Blender qui a probablement ramené des infographistes du coté Nvidia car CUDA a été supporté en premier pour le rendu. AMD n’a suivit que 2 ans après avec une autre solution. C’est une grosse claque. Sauf que pas grand monde le sait si ce n’est les infographistes Blenderisateurs.
Autre exemple les indices de “blockchain”. Comment un GPU va se débrouiller pour ce type de calcul? etc.
Bref dans les magazines/site on nous montre toujours les “trucs bateaux” histoire de montrer des “gros chiffres” pour que la couv’ ou le titre pète bien son profil putaclic. J’y vois de la pige de bas étage au mieux.
Les électroniciens oubliés.
Bien que les magasins parisiens ferment les uns après les autres. ce monde la a évolué aussi et c’est du hardware n’en déplaise. Raspberry PI, LattePanda et du Arduino sont les prétendants. Sauf qu’on trouve beaucoup de proutprout en terme d’info. Il y a des potentiels la encore. S’il y a potentiel de la discipline; il y a potentiel journalistique aussi.
Et puis ce serait bien délirant (donc démarquant) de voir un mec qui nous sort un Raspberri PI qui monte (avec un honteux bricolage) une Titan pour faire du calcul parallèle (Je plaisante… quoique je serai très content qu’on me fasse mentir).
Je consultais depuis 2004, inscrit en 2007 (au moins) probablement pour répondre à un trop gros troll que la décence interdit de laisser passer. Ça rajeunit pas tout ça.
Content de voir que le pari de l’indépendance a fonctionné.
Pour moi c’est symbole de durabilité ce qui, par les temps qui courent est plutôt rare.
Je suis sérieux. Une société qui croît n’a aucun intérêt à virer ses employés et à en embaucher de nouveaux puis les former. J’avais dans l’idée que tu pensais à SFR comme modèle.
SFR n’est pas une valeur de croissance. C’est une société sur un marché saturé et mature. Ça n’a rien à voir.
Du point de vue de la société peut-être mais ce n’est pas prévalant. Du point vue de l’actionnaire c’est une autre histoire. Le fond de pension il n’investit pas pour la grandeur d’âme. Il attend un ROI. Si cela marche, tant mieux. Mais bon… une société qui passe de main en main c’est jamais un étalon. Quelque soit la taille ou le domaine, quand il y a des reventes en série, il y a de grande chance que cela finisse mal. Alors autant que les employés de la société puissent partir avec un chèque.
Bon évidemment : moyenne etc. mais tout de même, on est plus dans l’augmentation que dans le découpage à scie.
Les fonds de pension; ça fait 40 ans qu’il font la même chose. Acheter une boite, virer 30% du personnel ce qui mécaniquement fait mousser le marché (d’ailleurs on se demande pourquoi ca fonctionne encore), et puis ils revendent. Aujourd’hui cette mécanique marche moins bien mais il y a d’autres façon de faire qui compensent la chose.
C’est qui donne des comportements bizarre quand les chiffres sont gros. Exemple Vivendi qui revend SFR et Blizzard presque en même temps. Deux poules aux œufs d’or. La raison était simple. Rembourser les dettes contractées.
Les fonds achètent de plus en plus en LBO ou un simili. Ça fini toujours devant le banquier à la fin.
De ce que j’ai pu voir durant toutes ces années c’est que les fonds de pension se comportent toujours et sans faillir comme des parasites. Souvent le parasitage tue. C’est parfois voulu, il y a des tactiques.
Noyautage par la concurrence. On place ses pions et coule la boite doucement. Cela peut aussi être l’objet de guerre économique entre états.
Rachat de boites battant de l’aile pour l’assurance et histoire de moins payer d’impôts
Opération de tronçonnage pour revendre en morceaux, ce qui est plus rentable (le potentiel cas SFR) etc.
Ce n’est pas parce que c’est une distribution Linux que les règles du marché ne s’appliquent pas. Il y a la loi et il y a les tours de passe passe.
Les annonces c’est du vernis. Comme disait Chirac. Les promesse n’engagent que ceux qui les croient. Je ne vois que des faits qui ne présagent rien de bien bon.
Le
03/07/2018 à
16h
06
fred42 a écrit :
Quelle drôle d’idée. EQT est un investisseur dans la croissance, elle n’a aucune raison de pousser les employés au départ.
Soit c’est une grosse blague soit t’es sérieux. Comme on voit souvent les deux ici… On va continuer sur la thématique blague.
Effectivement ils sont très intéressés par la croissance comme tout fond de pension qui se respecte. Si le titre affiche une croissance ce sera très bien pour les revendre plus tard. Sans cela; ce sera la bonne vieille recette du retour à la croissance en virant 30% du personnel.
Regarde SFR. Une belle croissance s’annonce. Enfin normalement.
Le
03/07/2018 à
12h
53
Après tout ce sera peut être l’occasion d’un plan de départ avantageux pour les salariés. Espérons.
Ce qu’il faudrait c’est que Microsoft change sa vision du mot “package” et passe plutôt sur un truc ressemblant vraiment à unix/linux. Un système étant un ensemble de logiciel donc de paquets… Leur philosophie du package représentant plutôt le niveau général de mise à jour prête non seulement à confusion pour le novice mais fait effet gros pâté.
Avec un système plus fin quand ça merde on saura quel package (donc logiciel) ne pas installer ou downgrader. Et cela éviterai aussi de renoncer à d’autres updates intéressantes. Et ça braillerai moins en cas de problème.
Je confirme. J’en ai eu un de ces claviers. A 190€ le clavier; la configuration laisse plus qu’a désirer. Il y avait des touches qu’on ne pouvait pas reconfigurer (a ce prix la???). Le support mongolien qui ne comprend les besoins utilisateurs du genre droitier / gaucher (dohhh!).
Sans compter que le rétro éclairage ne concernait que les symboles principaux… Dans le noir tu ne tapes pas un Alt-GR 8 -> . Produit de piètre qualité en plus qui a fini par claquer 2 semaines avant la fin de garantie; ouf.
J’ai échangé pour le prix (remboursé par la FNAC; il faut le souligner) 2 x G413Carbon de chez Logitech. couleur unique (rouge) mais on y voit clair sur tous les symboles et ils sont suffisamment solide.
heu j’ai l’impression de lire un troll dans cette news…
Ca fait bien longtemps que les machines savent économiser l’énergie. Dans le PC (donc les serveurs aussi); les processeurs ont des modes de consommations ajustable à la volée. Idem pour les autres éléments type routeur et compagnie.
Mais aussi les serveurs qui font du web le jour on les réassigne dynamiquement pour dépiler les “mail deferered” la nuit par exemple. Donc oui ça tourne a plein régime mais c’est a cause des règles de gestion. Ce qui est ironique du coup c’est que ce sont ces mêmes règles de gestion du mail (et autres) qui viennent du monde scientifique…
Le protocole du mail a toujours été abusé par sa trop grande perméabilité. Cela fonctionne pareil que dans le réel. Dans cette configuration le spam, tu mange, point. Il y a moyen de faire bien mieux pour dégommer le spam. L’estimation de l’envoie du mail qui coûte 20g de CO² me parait plus que fantoche. En tout cas, je veux voir leur explication sur le sujet. Ça fait cher le mail de 1Mo… ou le gramme. Je sais pas ce qu’ils prennent mais s’ils se fournissent chez fleur Pelerin ça doit être du costaud.
Idem pour le mobile. Et d’une les applications sont naturellement mises en sommeil si le focus passe ailleurs mais dans Android 7&8 (donc 80% du marché) il y a des dispositifs permettant de justement tacler l’application récalcitrante. Également à la grâce de l’utilisateur.
Et en ce qui concerne les ressources mal utilisées… mais ils viennent de naître au CNRS ou quoi??? ça fait 30 ans que c’est comme cela. Avec en plus des politiques dans les sociétés éditrices de logiciel (les jeux en bonne pole position) ou l’on disait souvent : “il faut remplir le CD (ou DVD)”. Tu m’étonne que ça encourage à économiser.
Si de l’énergie est consommée à outrance ce n’est pas la faute de fabricant d’équipement spécifiquement mais plutôt de l’utilisateur et de son usage.
Tel que présenté ce que dit le CNRS, ça pisse pas loin. Autant le faire dans un violon.
Firefox ne propose pas de bloqueur de pubs et autres trackers par défaut, et pourtant, ça ne dérange personne de devoir installer une extension pour faire le boulot.
Je suis même prêt à parier que t’as installé bien plus d’une extension dans ton navigateur. Perso j’aime bien également I don’t care about cookies, histoire que les sites web arrêtent de m’emmerder avec cette histoire de consentement.
Bin si. Ce serait carrément mieux de ne pas perdre de temps avec cela. La pub me dérange dans le sens ou elle est invasive par défaut de nos jours. Ce n’est pas comme si on se baladait dans une forêt et que l’on voit une fleur par-ci, par-la et qu’il nous appartient de la regarder ou non. Aujourd’hui c’est au niveau de l’agression quasiment.
Ton argument a du bon mais il y a un cadre à retracer. Il y 20-30 ans les pubs se faisait par pop-pup de fenêtre.
A cette époque on avait une option dans le navigateur pour empêcher les fenêtres pop-up. Les publicistes ont riposté en utilisant des technologies plus pointues (A base de JS et de DIV), pour rester dans la même page. Il a donc fallu une nouvelle solution pour empêcher la pub. C’est là qu’intervient Adblock.
Que cela soit sous forme d’extension ou autre, je pense que cela devrait être une option dans le navigateur. Car le sujet a changé aussi. On ne parle plus simplement de pub mais aussi d’exploitation de données personnelles, d’intrusion dans la vie privée etc. Le sujet a pris du poids, mais les navigateurs un peu à cause de qui les finance aussi n’ont pas poursuivit sur la lancée. Il y a aussi le fait que AdBlock soit une société etc. C’est devenu âprement plus compliqué mais pas insurmontable. Les options apparaissent et disparaissent au gré de l’évolution.
Demander à l’utilisateur “voulez vous adblock?” en plus de demander “voulez vous que XXX soit votre navigateur par défaut?” ne ferait pas de mal.
Okki a écrit :
Pour en revenir à GNOME, s’ils avaient proposé un dock, certains auraient critiqué comme quoi ils auraient préféré un panel, et inversement. Au final, on a donc un environnement épuré par défaut, et libre à l’utilisateur d’installer un dock ou un panel selon ses préférences.
L’astuce est autre part. De Gnome 2.9 à Gnome 3 il y a eu une régression. Ce n’est pas pareil. Ce n’est pas comme si on te proposait une configuration par défaut qui met en avant une approche (ou façon de faire) et que l’on peut configurer (le mot est important) pour se réapproprier le produit. Là on ne pouvait pas. Mais en plus des cassure de compatibilité sont apparues. G3 + Compiz tu oublies.
Dans ce cas on a eu droit à un “vous pourrez le faire par les extensions”. L’usage du future a clairement laissé de marbre certains. Seulement voila au lancement les extensions n’étaient pas encore créées. A la limite que les développeurs aient fait un choix de retirer un ensemble de fonctionnalités est concevable. Bon et puis cassure de compatibilité… pas sans prévenir svp… Mais qu’il ne fournissent pas eux même ces fonctionnalités par le biais des extensions est malhonnête. Surtout qu’on avait bien vu la “mobile fever” du moment. Ça crevait les yeux. D’un coté on avait des utilisateurs ronchons et de l’autre une grosse “poker face” qui était à la crédibilité ce qu’un marteau est à la finition d’un vase en cristal.
Okki a écrit :
Puis ce n’est pas non plus comme si c’était long et compliqué. D’autant plus que la conf de ton environnement, tu ne la refait pas non plus tous les matins. Ça ne me paraît donc pas déconnant d’y passer un peu de temps au départ, histoire d’obtenir un environnement configuré aux petits oignons et qui répond parfaitement à nos attentes, et d’être ensuite tranquille pour des années.
J’en reviens à “on n’a pas pu à au moment des faits”. Ils ont voulu sortir le produit comme dans une compétition. C’est un peu pour cela que je parle de réponse à un appel d’offre. Deux gros éléphants qui sortent en même temps (presque) et qui proposent le même genre de “nouvelles fonctionnalités” (un peu beaucoup pompé sur le mobile) dans un contexte de “mobile fever”, sans compter les problème/bug etc… ça fait tiquer. Gnome et KDE auraient peut être mieux fait de ne pas s’engager dans cette voie et de choyer un peu plus les utilisateurs.
Enfin je veux dire ce n’est pas comme si cela ne s’était pas vu. Y’a du clavier qui a chauffé à l’époque tellement que ça “swordait” en masse dans les forums. Phénomène assez rare pour être notable. Le même genre qu’avec Unity qui avait été imposé par défaut.
Il y a aussi le thème du danger de l’évolution. On devient méfiant quand on a subi ce genre de revers. Sauf que de ne pas “updater” peut poser des problèmes notamment de sécurité. C’est juste dommage.
Le
28/04/2018 à
16h
38
Okki a écrit :
Je me considère comme un utilisateur avancé et GNOME répond parfaitement à mes besoins. Je trouve au contraire que tout est bien pensé. On peut tout faire au clavier et il y a tout plein de bonnes idées qui font gagner un temps fou.
Après, je conçois parfaitement que ça ne puisse pas convenir à tout le monde.
Maintenant, comme avec les extensions on peut changer son workflow du tout au tout, j’ai du mal à voir où est le souci.
hmm très simple
Si tu as besoin d’une extension (fait par la communauté le plus souvent) et que tu la trouve c’est que :
c’est pas configurable d’origine (donc perte de temps à chercher)
que tu n’est pas le seul à en avoir besoin (donc que tu n’est donc pas fou)
Du coups ça ne redore pas le blason des développeurs. Ils ne l’ont pas vu, donc ils se sont planté ou ont omis (volontairement ou pas) quelque chose à un moment donné. Ce n’est jamais des bons points.
Le problème de l’écoute des utilisateurs est central dans les applications ou l’ergonomie joue un rôle essentiel. A l’époque de la sortie des moutures nextGen (Gnome3/Kde4), on a bien vu le problème d’écoute. Tout le monde a dit qu’un environnement de bureau ne devait pas ressembler à un application mobile, et ce de manière plus ou moins virulente sur les forums… et ce n’était pas volé du tout. On a eu droit un à florilège de réponses des services concernés pour le moins tendancieuses voire malhonnêtes (limite trollesque). Il a donc fallu se rendre compte que l’écoute du marché (ou d’un marché particulier pour cette histoire) pouvait faire de sacrés dégâts dans un soft de ce genre.
L’expression “marché particulier” car G3 et K4 à ce moment se ressemblaient assez dans le sens ou ces moutures mettaient avant les mêmes types de fonctionnalités (le recherche de programme etc.). Chacun prétendant les avoir inventé. On aurait cru facilement que c’était une réponse à un appel d’offre.
Que ces bureaux favorisent une approche ou un autre ne me dérange pas. C’est juste que de bloquer tout les autres utilisateur pour ça (manque de configura-bilité) n’est pas acceptable. Surtout quand ce sont ceux-la même qui peuvent faire la démonstration de puissance du truc.
Du coups je m’en fais pas : MATE+Compiz et le cube; il tourne. En plus avec les bécanes qu’on obtient aujourd’hui pour pas si cher qui peuvent dépoter du gigaflops, et faire la vaisselle en même temps… bon ce serai un peu dommage de ne pas utiliser tout ce potentiel.
Le
27/04/2018 à
19h
52
Ça ma fera toujours un drôle de sentiment de voir des gens s’extasier sur des bureaux devenus âprement pourris; La colonne de bureau pour gnome est juste trop débile. Mais surtout de voir le fait cocasse que les premier plug-in apparus à l’époque était pour remettre les choses au naturel. Peut être n’ont il jamais vu ce qu’il y avait avant???
J’ai jamais été aussi productif qu’avec un un gnome 2.9 pimpé avec Compiz. La différence entre une formule 1 et un solex (même boosté à l’éther)
Aujourd’hui pour un power user ces bureaux sont juste pas envisageables. C’est comme si on te mettait au volant d’une voiture sport (ton PC), que tu t’installe dans le fauteuil (le bureau), que tu veux passer la première mais… un concepteur a mis le levier de vitesse dans le coffre de la bagnole.
Je pense surtout qu’ils sont en mode “too big too fail”… Après c’est un virage assez rapide à prendre et ils le savent très bien. D’un côté ils ont bien raison au vue des lecteurs et de la concurrence. Avec tous le respect que j’ai pour nxi ils ne voient pas non plus bien plus loin que le bout de leur nez alors qu’ils ont un potentiel énorme.
Rien qu’au niveau expérimental il y à une tonne de choses à tester et pour le moment ça reste de la news “antigouv”, gafam et un peu de tech… C’est “low”. Après oui oui, il y à pas mieux donc c’est “cool”, mais avant il y avait pas mieux en gratuit et en moins de deux ans ça à faillis disparaitre.
Et bien entendu c’est d’autant plus ironique car le site ne traite que de high tech, donc de l’avenir.
Rapide certes mais visible de loin le virage. Ces canards auraient du anticiper depuis les années 2000. Plus ou moins quand l’ADSL s’est démocratisé. 18 ans plus tard ces journaux sont probablement plus des salariés de mes impôts que les fonctionnaires en titre.
Le
08/04/2018 à
15h
41
KP2 a écrit :
Le problème est que les ventes ne suffisent pas à tenir un journal a flot à part qq cas très exceptionnels. Alors comment fait-on concrètement ?
On laisse couler 90% des titres actuels ? Est-ce que la pluralité de la presse s’en porterait mieux ? Je ne pense pas…
La situation est loin d’être simple et ça ne peut pas être résolu en 2 temps 3 mouvements comme tu le suggères.
bah c’est un peu ce que je dis.
Laisser couler… ouais. En fait la pluralité n’a rien à voir la dedans et elle n’existe plus depuis des décennies. C’est la légitimité qui est importante. Je préfère payer un journal qui peut se permettre ses opinions (quelque soit le bord, après tout c’est démocratique) plutôt qu’un ramassis de torchons qui finalement ne vaut pas le papier sur lequel on l’imprime. Parce qu’en fait il n’y a pas de pluralité actuellement. Il y a le filtrage AFP, puis les recopies avec de faux semblant de rhétorique d’un bord ou l’autre qui ne sont en fait que des fausses pistes bien souvent. Cela fait un moment que c’est comme cela et si ces parutions relayaient toutes les informations sur un sujet traité on pourrait au moins déplorer la situation. En ce qui me concerne je n’ai aucune pitié sur le sujet rapport à mon vécu.
Je ne parle pas d’un modus operandi. Mais de règles de conduite. Un journal qui peut faire cela; moi j’achète et je suis certain de ne pas être le seul à penser cela. C’est le prix de l’honnêteté journalistique.
Deuxièmement Mais ou nous sommes nous ??? Bin … sur un media digital qui y arrive pas trop mal. C’est un pari mais rien d’impossible visiblement. NxI en est la preuve. Un regain d’indépendance via les abonnés c’est possible. Autrement je n’aurai pas traîné longtemps, ici.
On tombe souvent dans le piège de considérer que la presse papier ne marche pas et que cela fait tout le marché. C’est l’industrie du papier qui devra partir. Elle est très chère (énergie, machines, distribution, pollution) pour produire du torchon (ou PQ suivant les confessions). On fait pareil en digital et qui touche plus de gens.
C’est simplement un énième loupé du virage Papier vers le digital. Une mutation numérique qu’aucun n’a voulu faire. Certains s’en tirent sur l’ancien système comme le Canard Enchaîné mais il est le seul sur sa ligne de trouble-fête.
Comme pour le secteur de la photo. Ça en a mis plein par terre de 1995 a 2004 mais maintenant c’est un secteur qui n’est pas sans le sou et ou les acteurs on trouvé des filons à exploiter voire de faire de nouvelles choses.
Le papier peut rester mais je n’y crois gère. Les dispositifs embarqués sont le remplacement. Mais surtout ces journaux ne seraient pas dans cette bouse s’ils n’étaient pas des publications de complaisance tous autant qu’ils sont. C’est un signe. Du moment ou il n’y avait plus besoin du support papier, ceux la se sont retrouvés à ne plus rien vendre du jour au lendemain.
Le
08/04/2018 à
08h
16
fred42 a écrit :
Ça pue leur truc !
Pas de priorisation par les moteurs ou autres, non merci. Un média certifié est un média aseptisé !
Comment seraient classés l’Humanité, Le Figaro, Libération ? La presse d’opinion est aussi importante que la presse plus objective.
Pourquoi défavoriser la numérotation de certains types de chaînes TV ? Ça ressemble à du corporatisme, là.
Et cela t’étonne ?
hmmm
Le
07/04/2018 à
07h
45
Les seules publications libres sont celle qui sont autonomes financièrement ET qui appartiennent à leurs journalistes. En France. On les compte sur les doigts d’une main (avec une audience correcte), et encore peut-être qu’un moignon suffirait.
En France la plupart des publications à grand tirage reçoivent tous de l’argent du gouvernement pour entretenir la profession. C’est à hauteur de 250+millions d’euros au total par an. Avec l’innocent concours de magna de banque ou de télécoms pour le reste. Hmmm, bref.
Y’a pas besoin d’un million de règle. Juste 2:
Pas d’argent reçu autrement que par les ventes (donc pas de pub non plus)
Les journalistes sont leurs propres patron
Et voila c’est réglé.
Dans ce cadre seul une opinion politique forte viendrait atteindre le bon fonctionnement. On dirait d’un journal qu’il penche à gauche ou à droite. Mais bon à ce moment la les lecteurs s’en aperçoivent vite et les ventes aussi.
Hum non les budgets en la matière ont sacrément du plomb ds l’aile. Et pas une kindle dans les tablettes pr les établissements. Pas une !
impossible n’est pas francais… quand on veut on peut…
Plus rien ne m’étonnerai en la matière. Surtout si ça se faisait sous la forme d’une DSP. La je dis “royal with cheese”.
Le
06/04/2018 à
15h
04
On en a tellement vu que cela n’étonne plus.
Et puis y’a pas de fumé sans feu non plus.
Le
06/04/2018 à
15h
03
Ils ont peut être plein de Kindle à fourguer…
Des millions d’écolier à l’ère du numérique ça peut le faire bien comme il faut de leur mettre à chacun une tablette dans les mains (Kindle ou autre).
hier 50 millions, aujourd’hui 87 et demain ? 100 et la semaine prochaine 150…
+1
Valeryan_24 a écrit :
Et on apprend que, juste avant le scandale récent de Cambridge Analytica, Facebook était en négociation avec des hôpitaux et groupes médicaux, afin de partager avec eux les données de santé de ses utilisateurs !
Ne nous leurrons pas, la finalité de FB c’est d’aspirer toutes vos infos et la moindre parcelle de vie privée, puis de les revendre à des fins publicitaires, ciblage commercial. Là ils vont jouer profil bas quelques mois, et ça redémarrera de plus belle, avant que Zuck s’excuse de nouveau d’avoir “commis une erreur due à un bug, mais on va corriger et relier toujours plus de monde qui s’aime”…
Quand on connait un peut le système de santé américain on voit vite fait le problème. Y’a un tas d’assureurs qui serait bien content de pouvoir trouver ce genre de données, histoire d’imprimer un peu plus de “denial notice” à cause d’une “pre-existing condition”. FB se trouverai un vecteur d’expansion dans le secteur des assurances. Et la ça ferai mal à un tas de gens.
Le plus désolant étant qu’on parle dans l’article cité de données anonymes. Cela m’a toujours bien fait rire. Les sondages anonymes demandent toujours des informations du genre “êtes vous une femme/homme” etc. Ca ne demande pas le nom mais c’est suffisamment pointu pour qu’on puisse identifier quelqu’un. Alors de là a ce qu’on ne puisse pas faire de recoupement avec les données venant des hôpitaux…
Suis-je parano ou tout ceci me fait l’impression d’un climat de pays de l’Est en mode ‘ancien régime’ ?
Créer une commission peut amener un noyautage. Toutefois c’est une interface publiquement visible. Donc soumis aux lois de la communication. C’est comme une lettre publique. C’est n’est pas fait pour rien. C’est pour avoir un écho médiatique et / ou communautaire. La réponse en face doit obligatoirement en tenir compte.
Si ça peut éviter les contrats open bar comme pour la défense… pourquoi pas.
Trump protège les entreprises américaines. Si seulement on pouvait avoir la même chose ici. Il est peut-être repoussant mais au moins ils peuvent compter sur lui.
Ha bon y’a des entreprises française ? Je dirai que les locaux sont encore en France. Pour le capital… c’est une autre histoire.
alex.d. a écrit :
Les américains ne sont décidément pas pour le libéralisme (chez eux).
Il ont toujours pratiqué la méthode de l’huitre. quand ça menace ou que ça va pas, hop on augmente les taxes aux frontière le temps de réorganiser le marché intérieur. Soit pour résister; soit pour se remettre à flot.
En France on fait exactement l’inverse. Plus on va mal plus on ouvre.
Quand je vois ce que donne une isolation chez moi (B) même en grand froid je pense que c’est suffisant pour une petite pièce. Après c’est pas fait pour le salon en chauffage unique, c’est sur ;)
Hmmm. Une petit note de précision. Avoir une isolation c’est bien mais pour être dans la norme il faut AUSSI la ventilation. CAD le renouvellement de l’air dans une pièce doit pouvoir se faire en un temps donné.
Dans la plupart des cas, “isolation” veut malheureusement dire imperméabilisation. Au final ça “schmoute” sévère dans les cages à lapin des plus geek d’entre nous.
Si une pièce est bien ventilée cela fait normalement perdre quelques degrés sur le rendement d’un radiateur. Bref 3k le radiateur contre des panneaux entre 300 et 500€. C’est vite vu.
Donc ça dépend vraiment de chaque logement. Seules les mesures sont fiables.
Oui mais. Dans les années 80 on nageait dans la révolution sexuelle et la coke. On avait moins de problème de soussous.
Depuis les années 90 le développement s’est barré en inde (et consort) et cela a bien amenuisé le secteur dans les pays dit riches. Il y a même des associations / observatoires de la profession (en France), histoire de lancer l’alerte. Avec un succès en demi teinte. Ça montre bien qu’il y a menace. Ça va mieux ces derniers temps (retour de la demande locale) mais tout n’est pas gagné. On a toujours des gens qui corrigent le code bugé arrivé d’un pays ou le cout de la main d’œuvre est bas.
On peut revenir aussi sur les fameuses startup hype qui sont plus des problèmes que d’être des solutions en soit (exemple des stagiaires), et dans le monde du libre et dans le monde économique.
Quand Google fait du libre c’est parce que ca l’arrange. Il y a des processus de capture qui sont les mêmes que pour une entreprise régie par le système des contrat/marché.
Je ne dis pas que le libre/open source est nocif c’est l’abus de gratuité qu’il l’est. Tout le monde est content de pomper Firefox mais peu se doutent qu’il y a des centaines de personnes derrière qui mangent parce qu’on les paye pour développer la chose. Un abus en amenant un autre, ca va jusqu’au demi scandale du financement trop marqué de Google dans cette fondation.
Mais surtout cette distorsion, provoque une considération qui fait croire que le code ne vaut rien. C’est juste totalement faux.
Je suis pour qu’on ait des logiciels au plus bas prix afin de promouvoir le financement par et pour le peuple (oui c’est catchy). Quand c’est une fondation non auto financée par ses produits, on peut dire qu’il faudra se poser des questions autant institutionnelles que financières un jour ou l’autre. C’est arrivé, ça arrivera. Et c’est âprement valable pour le “libre”. Bin oui le Stallman fait un joli appel aux dons quand même. Comme quoi tout n’est pas gratuit.
L’auto financement permet de réduire le prix du logiciel à mesure qu’il devient démocratique. Ce qui est aux antipodes de ce que l’on a pu voir dans le monde du logiciel payant mais aussi du libre/open source.
Je préfère payer 10cent un OS complet tout les mois et ne jamais me soucier du support (qui bien souvent se monnaye aujourd’hui). Plutôt que de voir des produits pas forcément dédiés à l’intérêt de l’utilisateur. Ou qui ne peuvent pas pousser le bouchon assez loin. Ex Linux et le pilote graphique. Plus il y a de gens plus il y a possibilités de réduire le prix. Le graal est l’équilibre, pas le profit à mon sens. Et s’il y a du surplus on peut créer de nouveaux projets avec ce cash.
En revenant sur le problème Linux / pilote (car j’en vois déjà qui tiquent). C’est que tout simplement que même si on a le problème du pilote propriétaire (licence) un producteur hardware sera toujours plus sensible à adapter ses produits lui même si la solidité financière des gens en face est démontrée.
Les seuls initiatives économiquement concrète envers les développeurs (CAD payer un soft et non avoir un gratuiciel avec contrepartie non fiduciaire : pub, calcul, bigdata), c’est le créative common qui permet rétribution pour l’usage commercial s’il est souhaité. Bref c’est un peu le désert coté stabilité et équilibre.
C’est en cela que je préfère payer directement les développeurs. Histoire de faire fonctionner le schmilblick et ne plus voir des choses abracadabrantes ou pseudo-gratuire qui sont le quotidien depuis au moins 25ans…
1945 commentaires
Windows 10 1809 intercepte l’installation de Chrome/Firefox pour recommander Edge
13/09/2018
Le 13/09/2018 à 10h 46
Hmmm. Je suis certain de l’avoir déjà vu ce message. Je ne suis pas un fan de la “latest update”. C’était juste une ré-init il y a quelques semaines. C’est peut être un test en aveugle pour vérification de bon fonctionnement. En tout cas je m’en souvient très bien. Ca étonne assurément de voir ce genre de chose.
Je pense que cela remonte a un peu plus longtemps que “Microsoft teste actuellement un mécanisme assez spécial dans les dernières préversions de Windows 10”.
Ca pose aussi la question de la maîtrise des systèmes. Est ce que l’utilisateur est bien le maître à bord?
Projet Lambda : le premier chapitre de Half-Life avec le moteur Unreal Engine 4 est disponible
13/09/2018
Le 13/09/2018 à 10h 36
Hmmm … et ça donne quoi au niveau du droit d’auteur et des franchises?
C’est quand même une publicité qui peut donner du revenu par ricochet. Enfin ça peut devenir compliqué.
Ray tracing : NVIDIA annonce Ansel RT, UL Benchmarks évoque le cas de 3DMark
30/08/2018
Le 30/08/2018 à 11h 18
“Ainsi, il sera possible de réaliser un cliché exploitant bien plus de
rayons de lumière que pour le rendu effectué en temps réel. La
fonctionnalité AI Up-res se chargera de son côté d’augmenter la
définition de l’image finale jusqu’à 8K depuis du 1080p.”
Ou comment faciliter le travail des magazines de jeu peu scrupuleux (comme les éditeurs de jeux). Ça va être burlesque la différence entre le sreenshot et la réalité. Et toujours avec l’excuse que c’est pas fait sur la même machine… bref ca change pas.
Un article de Julia Reda contre les robots-copyright déréférencé de Google par un robot-copyright
23/08/2018
Le 24/08/2018 à 14h 05
GeForce RTX : NVIDIA veut rassurer sur les performances
23/08/2018
Le 23/08/2018 à 12h 19
L’efficacité de Turing ferait donc bien la différence. Avec un prix en hausse de 66 %, c’était bien la moindre des choses à attendre. On se demanderait presque pourquoi NVIDIA n’en a pas parlé plus tôt.
Parce qu’il doit y avoir un lapin farceur qui une fois découvert fera passer le prix des cartes comme quelque chose d’obscène (quoique ça l’est déjà un peu).
Et effectivement ca sent le NDA a plein nez. Donc maîtrise de la com’, donc manipulation.
Laaaapin… wait for it…
Laaaapin… wait for it…
Laaaapin… wait for it…
GeForce RTX 2070/2080 (Ti) : point sur les caractéristiques, les tarifs et la stratégie de NVIDIA
21/08/2018
Le 21/08/2018 à 19h 03
Le 21/08/2018 à 10h 41
Hmmm entre 150 et 250watts…
C’est plus que : mon PC en mode bureautique + moniteur@140Hz + box/switch + 2 NAS allumés et mon ampli (pour du bon son). La je suis à 200 Watts pour tout ça.
Du coup la question par rapport au tableau c’est: Est-ce la consommation en mode repos ? ou en pleine charge ?
NVIDIA annonce ses GeForce RTX 2070 et 2080 (Ti) : ce qu’il faut en retenir
20/08/2018
Le 20/08/2018 à 20h 21
Oui bon déjà il a dit un gros BS. Le coup des “bounding boxes” est vieux comme le monde. Ce n’est pas un gros effort mathématique en soit. Il y a bien plus difficile.
Ensuite il faut surtout voir comment seront implémentées ces choses chez les autres constructeurs. La puce; si elle se retrouve avec une RAM pourrie sur la carte vidéo, ça n’ira pas bien loin. Il faut aussi des bus “capable” sur ces cartes. Et je me dis que du constructeur qui fera l’impasse sur X ou Y sera pas nouveau. Bref Note mentale pour gamer : Lire des benchmark avant de faire quoique ce soit.
Et enfin que requiert ce genre de carte? Ca me fait penser au bon vieux “RAM bottleneck”. Les gens s’achètent de gros CPU tout en faisant l’impasse sur de la bonne RAM. Résultat le CPU il passe son temps à attendre la RAM. Pour en revenir au cartes, bin si la carte mère suit pas ou que la RAM ne le fait pas non plus…
Vu la grille tarifaire, peut-être faut-il ne pas se précipiter. Bon ca va être dur pour les gamers mais bon.
Bref le show est bien foutu mais c’est pas un banc d’essai en soit. Wait & see.
NVIDIA : architecture Turing, nouvelles Quadro RTX, solutions de ray tracing et prochaines GeForce
14/08/2018
Le 14/08/2018 à 19h 16
Le 14/08/2018 à 13h 49
Le nombre de RT Cores n’est d’ailleurs pas évoqué par NVIDIA, qui préfère dans ses caractéristiques techniques évoquer la quantité de millions de rayons (GigaRays) pouvant être traités chaque seconde. Pour une Quadro RTX 8000, c’est dix. Une puissance de calcul annoncée comme 30x celle d’un processeur (sans détails) ou 25x celle de la génération Pascal.
Hmm ont-il donné la longueur de ces rayons ou plus simplement le nombre de rebond moyen ? Car il est facile de siffler avec le “giga” comme unité mais bon dans une scène simple c’est déjà pas forcément couru d’avance (en fait bien loin de la). Alors avec des matériaux transparents/translucides et avec de la rugosité (réflexion, réfraction, diffraction) même avec un nombre réduit de rebond c’est déjà bien moins simple (en fait un cauchemar géométrique et gourmand en mémoire).
Bilan du Flash Memory Summit 2018 : SSD QLC, 4D NAND, MRAM et Xtacking
10/08/2018
Le 13/08/2018 à 23h 32
Le 11/08/2018 à 17h 39
Le 11/08/2018 à 01h 36
5G sur les 26 GHz : le casse-tête de la libération et de l’attribution des fréquences
08/08/2018
Le 09/08/2018 à 15h 29
Le 09/08/2018 à 08h 11
S’il faut tout migrer, j’en connais un ou deux qui vont s’arracher les cheveux…
le matériel vieillissant ne permet pas toujours de jongler avec les fréquences.
Les FHs c’est souvent “la” solution pour la pampa. Donc résoudre un problème qui avait été contourné avec un FH… Et qu’on ne peut pas migrer la fréquence à cause du vieux matériel… Ça va sentir le sapin.
Les référentiels ne sont pas toujours facile à travailler ou bien à jour.
Il se pourrait qu’une ou deux migration coûte bien cher pour le service rendu.
Google annonce Android 9 Pie, déjà disponible pour les Pixel
07/08/2018
Le 07/08/2018 à 12h 47
Intel : la révolution attendra
03/08/2018
Le 06/08/2018 à 17h 54
Le 06/08/2018 à 00h 11
Le 05/08/2018 à 10h 31
Le 04/08/2018 à 11h 16
Le 04/08/2018 à 11h 05
Au Journal officiel, le barème de redevance copie privée frappant Molotov
24/07/2018
Le 25/07/2018 à 08h 10
Next INpact a le droit d’obtenir l’accord entre État et opérateurs mobiles, selon la Cada
23/07/2018
Le 24/07/2018 à 10h 43
En tant qu’ancien du Télécom Je sais que vous ne l’aurez pas. En tout cas pas la version complète. Loin de la. Surtout le volet emploi. Bon ça ferait rire remarque. Rire jaune s’entend.
C’est comme la fameuse compression du marché en 2007-2008. Tout s’est produit de manière fortuite. Toutes les pièces du puzzle qui composent le décor Telecom d’aujourd’hui sont arrivées pile poil au bon moment en ayant voyagé à la vitesse de la lumière depuis Aldebaran, VY Canis Majoris et Andromède. Un pur hasard nous dit-on.
Quand l’info se cache il ne faut pas trop s’obstiner mais aussi regarder qui a quoi et qui veut quoi.
YouTube
Les députés refusent d’inscrire le droit à la vie privée dans la Constitution
16/07/2018
Le 16/07/2018 à 17h 22
“Une certitude : refuser d’inscrire la vie privée dans le marbre de la Constitution laisse le sujet entre les seules mains des neuf Sages de la Rue de Montpensier.”
Vous avez oublié “dont l’impartialité ne laisse aucun doute”.
… Quoique.
15 ans après, INpact Hardware revient
05/07/2018
Le 05/07/2018 à 17h 17
Si y’a un truc qui me saoule vraiment dans les sites tech hardware c’est de :
Mettre une référence d’un produit dans un champ de recherche et de tout trouver sauf le produit en question. Le principe de la pertinence aléatoire me gonfle vraiment surtout quand je me fais suer à récupérer les ID/nom exact de ce maudit hardware. Si y’a bien un truc qui manque c’est une banque de fiches technique digne de ce nom. Surtout avec les “révisions”.
Solution -> en faire une Ce sont des petits efforts réguliers mais au bout d’un moment ça paye. une référence HW bin faut que ca réfère…
Les tests à téléguidage par les constructeurs à peine dissimulés.
Solution -> faire des test à l’envers. De toutes façons c’est pas aujourd’hui qu’on peut aller taquiner les gros du secteur comme Tom’s et consort. Au lieu de tester la carte de manière classique, faire un bon gros test de tout ce qui n’est pas testé chez les autres. Et il y a probablement de la matière.
Ex: Une carte vidéo sait aujourd’hui faire plein de choses et les usages sont plus versatiles qu’on peut le penser. Le support logiciel qui s’y relie doit suivre aussi. Le cas de Blender qui a probablement ramené des infographistes du coté Nvidia car CUDA a été supporté en premier pour le rendu. AMD n’a suivit que 2 ans après avec une autre solution. C’est une grosse claque. Sauf que pas grand monde le sait si ce n’est les infographistes Blenderisateurs.
Autre exemple les indices de “blockchain”. Comment un GPU va se débrouiller pour ce type de calcul? etc.
Bref dans les magazines/site on nous montre toujours les “trucs bateaux” histoire de montrer des “gros chiffres” pour que la couv’ ou le titre pète bien son profil putaclic. J’y vois de la pige de bas étage au mieux.
Les électroniciens oubliés.
Bien que les magasins parisiens ferment les uns après les autres. ce monde la a évolué aussi et c’est du hardware n’en déplaise. Raspberry PI, LattePanda et du Arduino sont les prétendants. Sauf qu’on trouve beaucoup de proutprout en terme d’info. Il y a des potentiels la encore. S’il y a potentiel de la discipline; il y a potentiel journalistique aussi.
Et puis ce serait bien délirant (donc démarquant) de voir un mec qui nous sort un Raspberri PI qui monte (avec un honteux bricolage) une Titan pour faire du calcul parallèle (Je plaisante… quoique je serai très content qu’on me fasse mentir).
Concours des 15 ans : il vous reste jusqu’à demain soir pour participer et tenter votre chance
13/07/2018
Le 05/07/2018 à 16h 30
Je consultais depuis 2004, inscrit en 2007 (au moins) probablement pour répondre à un trop gros troll que la décence interdit de laisser passer. Ça rajeunit pas tout ça.
Content de voir que le pari de l’indépendance a fonctionné.
Pour moi c’est symbole de durabilité ce qui, par les temps qui courent est plutôt rare.
SUSE à nouveau rachetée, cette fois par EQT
03/07/2018
Le 03/07/2018 à 21h 31
Le 03/07/2018 à 16h 06
Le 03/07/2018 à 12h 53
Après tout ce sera peut être l’occasion d’un plan de départ avantageux pour les salariés. Espérons.
Razer Huntsman : deux claviers « gamers » avec des switchs opto-mécaniques, dès 149,99 dollars
29/06/2018
Le 29/06/2018 à 10h 26
pour peu que la qualité suive…
C’est pas leur fort.
Windows 10 : le passage de l’April Update n’aura pas été de tout repos
27/06/2018
Le 27/06/2018 à 21h 33
Ce qu’il faudrait c’est que Microsoft change sa vision du mot “package” et passe plutôt sur un truc ressemblant vraiment à unix/linux. Un système étant un ensemble de logiciel donc de paquets… Leur philosophie du package représentant plutôt le niveau général de mise à jour prête non seulement à confusion pour le novice mais fait effet gros pâté.
Avec un système plus fin quand ça merde on saura quel package (donc logiciel) ne pas installer ou downgrader. Et cela éviterai aussi de renoncer à d’autres updates intéressantes. Et ça braillerai moins en cas de problème.
Razer propose ses switchs mécaniques et son système RGB Chroma à ses partenaires
06/06/2018
Le 06/06/2018 à 16h 24
Je confirme. J’en ai eu un de ces claviers. A 190€ le clavier; la configuration laisse plus qu’a désirer. Il y avait des touches qu’on ne pouvait pas reconfigurer (a ce prix la???). Le support mongolien qui ne comprend les besoins utilisateurs du genre droitier / gaucher (dohhh!).
Sans compter que le rétro éclairage ne concernait que les symboles principaux… Dans le noir tu ne tapes pas un Alt-GR 8 -> . Produit de piètre qualité en plus qui a fini par claquer 2 semaines avant la fin de garantie; ouf.
J’ai échangé pour le prix (remboursé par la FNAC; il faut le souligner) 2 x G413Carbon de chez Logitech. couleur unique (rouge) mais on y voit clair sur tous les symboles et ils sont suffisamment solide.
Razer c’est des quiches !
Le CNRS pointe la (sur)consommation énergétique du numérique
17/05/2018
Le 17/05/2018 à 18h 56
heu j’ai l’impression de lire un troll dans cette news…
Ca fait bien longtemps que les machines savent économiser l’énergie. Dans le PC (donc les serveurs aussi); les processeurs ont des modes de consommations ajustable à la volée. Idem pour les autres éléments type routeur et compagnie.
Mais aussi les serveurs qui font du web le jour on les réassigne dynamiquement pour dépiler les “mail deferered” la nuit par exemple. Donc oui ça tourne a plein régime mais c’est a cause des règles de gestion. Ce qui est ironique du coup c’est que ce sont ces mêmes règles de gestion du mail (et autres) qui viennent du monde scientifique…
Le protocole du mail a toujours été abusé par sa trop grande perméabilité. Cela fonctionne pareil que dans le réel. Dans cette configuration le spam, tu mange, point. Il y a moyen de faire bien mieux pour dégommer le spam. L’estimation de l’envoie du mail qui coûte 20g de CO² me parait plus que fantoche. En tout cas, je veux voir leur explication sur le sujet. Ça fait cher le mail de 1Mo… ou le gramme. Je sais pas ce qu’ils prennent mais s’ils se fournissent chez fleur Pelerin ça doit être du costaud.
Idem pour le mobile. Et d’une les applications sont naturellement mises en sommeil si le focus passe ailleurs mais dans Android 7&8 (donc 80% du marché) il y a des dispositifs permettant de justement tacler l’application récalcitrante. Également à la grâce de l’utilisateur.
Et en ce qui concerne les ressources mal utilisées… mais ils viennent de naître au CNRS ou quoi??? ça fait 30 ans que c’est comme cela. Avec en plus des politiques dans les sociétés éditrices de logiciel (les jeux en bonne pole position) ou l’on disait souvent : “il faut remplir le CD (ou DVD)”. Tu m’étonne que ça encourage à économiser.
Si de l’énergie est consommée à outrance ce n’est pas la faute de fabricant d’équipement spécifiquement mais plutôt de l’utilisateur et de son usage.
Tel que présenté ce que dit le CNRS, ça pisse pas loin. Autant le faire dans un violon.
Fait tourner…
Ubuntu 18.04 disponible : une LTS GNOME très attendue et jouant la sécurité
27/04/2018
Le 29/04/2018 à 08h 12
Le 28/04/2018 à 16h 38
Le 27/04/2018 à 19h 52
Ça ma fera toujours un drôle de sentiment de voir des gens s’extasier sur des bureaux devenus âprement pourris; La colonne de bureau pour gnome est juste trop débile. Mais surtout de voir le fait cocasse que les premier plug-in apparus à l’époque était pour remettre les choses au naturel. Peut être n’ont il jamais vu ce qu’il y avait avant???
J’ai jamais été aussi productif qu’avec un un gnome 2.9 pimpé avec Compiz. La différence entre une formule 1 et un solex (même boosté à l’éther)
Aujourd’hui pour un power user ces bureaux sont juste pas envisageables. C’est comme si on te mettait au volant d’une voiture sport (ton PC), que tu t’installe dans le fauteuil (le bureau), que tu veux passer la première mais… un concepteur a mis le levier de vitesse dans le coffre de la bagnole.
[Critique Geek] Avengers Infinity War : on s’était dit rendez-vous dans 10 ans
28/04/2018
Le 28/04/2018 à 17h 31
Contre la désinformation, RSF lance un grand projet de certification des médias
06/04/2018
Le 08/04/2018 à 21h 09
Le 08/04/2018 à 15h 41
Le 08/04/2018 à 08h 16
Le 07/04/2018 à 07h 45
Les seules publications libres sont celle qui sont autonomes financièrement ET qui appartiennent à leurs journalistes. En France. On les compte sur les doigts d’une main (avec une audience correcte), et encore peut-être qu’un moignon suffirait.
En France la plupart des publications à grand tirage reçoivent tous de l’argent du gouvernement pour entretenir la profession. C’est à hauteur de 250+millions d’euros au total par an. Avec l’innocent concours de magna de banque ou de télécoms pour le reste. Hmmm, bref.
Y’a pas besoin d’un million de règle. Juste 2:
Et voila c’est réglé.
Dans ce cadre seul une opinion politique forte viendrait atteindre le bon fonctionnement. On dirait d’un journal qu’il penche à gauche ou à droite. Mais bon à ce moment la les lecteurs s’en aperçoivent vite et les ventes aussi.
Le Directeur du numérique pour l’éducation en passe d’être débauché par Amazon
06/04/2018
Le 06/04/2018 à 18h 04
Le 06/04/2018 à 15h 04
On en a tellement vu que cela n’étonne plus.
Et puis y’a pas de fumé sans feu non plus.
Le 06/04/2018 à 15h 03
Ils ont peut être plein de Kindle à fourguer…
Des millions d’écolier à l’ère du numérique ça peut le faire bien comme il faut de leur mettre à chacun une tablette dans les mains (Kindle ou autre).
Facebook serre la vis sur l’accès aux données, 87 millions de comptes auraient fuité en 2014
05/04/2018
Le 06/04/2018 à 07h 13
Registre numérique de lobbyistes : le gouvernement fait machine-arrière, mais pas le Sénat
15/03/2018
Le 15/03/2018 à 20h 49
Et on m’a trollé dans le sujet d’avant en disant que je voyais le mal partout.
Bin tient prends (ou prenez) ça dans la partie latérale gauche de la gencive.
L’Aful et l’Adullact appellent la ministre de la Culture à soutenir le libre
15/03/2018
Le 15/03/2018 à 09h 59
Créer une commission peut amener un noyautage. Toutefois c’est une interface publiquement visible. Donc soumis aux lois de la communication. C’est comme une lettre publique. C’est n’est pas fait pour rien. C’est pour avoir un écho médiatique et / ou communautaire. La réponse en face doit obligatoirement en tenir compte.
Si ça peut éviter les contrats open bar comme pour la défense… pourquoi pas.
Trump s’oppose au rachat de Qualcomm par Broadcom, qui relocalise son siège aux États-Unis
13/03/2018
Le 13/03/2018 à 12h 02
Qarnot annonce son « crypto-radiateur qui rémunère ses utilisateurs »
08/03/2018
Le 08/03/2018 à 13h 25
Ultracopier : les raisons de l’abandon d’un mineur de crypto-monnaie
28/02/2018
Le 01/03/2018 à 10h 18
Oui mais. Dans les années 80 on nageait dans la révolution sexuelle et la coke. On avait moins de problème de soussous.
Depuis les années 90 le développement s’est barré en inde (et consort) et cela a bien amenuisé le secteur dans les pays dit riches. Il y a même des associations / observatoires de la profession (en France), histoire de lancer l’alerte. Avec un succès en demi teinte. Ça montre bien qu’il y a menace. Ça va mieux ces derniers temps (retour de la demande locale) mais tout n’est pas gagné. On a toujours des gens qui corrigent le code bugé arrivé d’un pays ou le cout de la main d’œuvre est bas.
On peut revenir aussi sur les fameuses startup hype qui sont plus des problèmes que d’être des solutions en soit (exemple des stagiaires), et dans le monde du libre et dans le monde économique.
Quand Google fait du libre c’est parce que ca l’arrange. Il y a des processus de capture qui sont les mêmes que pour une entreprise régie par le système des contrat/marché.
Je ne dis pas que le libre/open source est nocif c’est l’abus de gratuité qu’il l’est. Tout le monde est content de pomper Firefox mais peu se doutent qu’il y a des centaines de personnes derrière qui mangent parce qu’on les paye pour développer la chose. Un abus en amenant un autre, ca va jusqu’au demi scandale du financement trop marqué de Google dans cette fondation.
Mais surtout cette distorsion, provoque une considération qui fait croire que le code ne vaut rien. C’est juste totalement faux.
Je suis pour qu’on ait des logiciels au plus bas prix afin de promouvoir le financement par et pour le peuple (oui c’est catchy). Quand c’est une fondation non auto financée par ses produits, on peut dire qu’il faudra se poser des questions autant institutionnelles que financières un jour ou l’autre. C’est arrivé, ça arrivera. Et c’est âprement valable pour le “libre”. Bin oui le Stallman fait un joli appel aux dons quand même. Comme quoi tout n’est pas gratuit.
L’auto financement permet de réduire le prix du logiciel à mesure qu’il devient démocratique. Ce qui est aux antipodes de ce que l’on a pu voir dans le monde du logiciel payant mais aussi du libre/open source.
Je préfère payer 10cent un OS complet tout les mois et ne jamais me soucier du support (qui bien souvent se monnaye aujourd’hui). Plutôt que de voir des produits pas forcément dédiés à l’intérêt de l’utilisateur. Ou qui ne peuvent pas pousser le bouchon assez loin. Ex Linux et le pilote graphique. Plus il y a de gens plus il y a possibilités de réduire le prix. Le graal est l’équilibre, pas le profit à mon sens. Et s’il y a du surplus on peut créer de nouveaux projets avec ce cash.
En revenant sur le problème Linux / pilote (car j’en vois déjà qui tiquent). C’est que tout simplement que même si on a le problème du pilote propriétaire (licence) un producteur hardware sera toujours plus sensible à adapter ses produits lui même si la solidité financière des gens en face est démontrée.
Les seuls initiatives économiquement concrète envers les développeurs (CAD payer un soft et non avoir un gratuiciel avec contrepartie non fiduciaire : pub, calcul, bigdata), c’est le créative common qui permet rétribution pour l’usage commercial s’il est souhaité. Bref c’est un peu le désert coté stabilité et équilibre.
C’est en cela que je préfère payer directement les développeurs. Histoire de faire fonctionner le schmilblick et ne plus voir des choses abracadabrantes ou pseudo-gratuire qui sont le quotidien depuis au moins 25ans…