votre avatar

Pat_Hator

est avec nous depuis le 24 mai 2018 ❤️

141 commentaires

Le 04/06/2021 à 11h 09

Passionnant.



Bon week end.

Le 04/06/2021 à 10h 06


Cumbalero a dit:


Tu as raison, n’importe quel stagiaire devrait pouvoir accéder à la configuration des systèmes stratégiques !


Dans le genre interprétation et déformation de ce que j’ai pu écrire, tu tiens le haut du pavé.



Respire, relis plus posément (tous les mots), et ça va nettement mieux se passer :windu:

Le 03/06/2021 à 15h 11


(quote:1877415:j-dub)
J’avais fait de la presta quelques années chez Orange y’a dix ans et dans mes souvenirs c’était administratif à fond, fallait toujours remplir des formulaires, faire des demandes d’accès, etc… Lourdingue mais on pouvait pas toucher à de la prod facilement.


Oui, à part qu’à force de créer des process imbitables, des formulaires bleus x42.27 à faire signer par des sous chefs pas dispos, il finit toujours par y avoir un bypass oral à un moment “pour faire avancer, sinon on va pas s’en sortir”.



Ça fait X années que je bosse dans des grosses boîtes, et à un moment donné, toutes ces process qui gonflent tout le monde finissent par être joyeusement court-circuités, à l’occasion.



Évidemment, dans ce cas de figure, il y a forcément eu une boulette à un certain niveau, et il est probable que des têtes tombent.
Après, l’emballement de “monsieur le ministre” qui va souffler dans les bronches de S Richard, c’est un osef total.



Et pour l’anecdote, j’ai connu un admin sys de FT, qui m’expliquait (il y a une dizaine d’années) qu’ils avaient des vieux tromblons en salle serveur que personne n’administrait ou ne savait ce qui pouvait bien tourner dessus, mais que personne ne débranchait “au cas où” :roll:

Le 02/06/2021 à 14h 26


revker a dit:


Par contre, j’ai toujours du mal avec le manque de “touches” du clavier qui obligent à retenir des raccourcis un peu alambiqués.


Tout pareil. On s’y fait, mais c’est lourd, et idem avec les touches qui ne sont pas au même endroit (le @ par exemple).

Le 02/06/2021 à 08h 25


fofo9012 a dit:


Je n’ai pas essayé cette version mais je ne trouve le centre de contrôle soit une réussite. Déjà sur iphone ça s’affiche toujours quand t’essaie de scroller, et à l’inverse c’est impossible de trouver quel bord de l’écran fait quelle action quand t’en a besoin (un peu comme la prise USB qu’on retourne 3x avant de trouver le bon sens :) ). Reprendre cette mauvaise idée telle quelle sur macOS ne me semble pas un travail d’ergonome…


Ce n’est pas le cas ici : par défaut, on l’affiche via un swipe vers la gauche, à partir du coin supérieur droit du trackpad.
J’ai bien du l’afficher une ou deux fois par erreur, mais ça se passe bien globalement.

Le 01/06/2021 à 22h 32


KP2 a dit:


Je n’arriverait décidément jamais à comprendre cette allégation…


A l’inverse, peux-tu développer pourquoi tu ne peux pas comprendre cette allégation ?

Le 01/06/2021 à 18h 46

/3615 mylife ON



J’ai du bol.



J’avais commencé mon aventure mac à la période “dorée” (10.310.410.5) en découvrant un OS qui avait une énorme longueur d’avance sur Windows XP/vista à l’époque.
Et j’avais commencé à lâcher aux alentours de 201011, ou W7 avait des arguments intéressants, et ou OsX ne progressait pratiquement plus, loin de la débauche de nouvelles fonctionnalités “cool” d’une période.



Et il y a deux mois, assez hypé par le M1, et à la recherche d’un OS peut être moins gourmand de nos informations personnelles (coucou W10), et linux n’étant vraiment pas assez optimal pour un environnement desktop, me revoici donc avez Big Sur via un MBA de base.
Et j’ai beau être agacé par la fermeture de l’écosystème d’apple, je dois bien admettre que l’OS est vraiment agréable, bien optimisé, et toujours aussi séduisant par son côté polish que Windows est étonnamment loin d’avoir.



Cet article, ainsi que les précédents, me confirment que j’ai donc “zappé” toute la longue période ou OsX s’est peaufiné, a gagné une certaine maturité, mais ou l’actualité OsX était… meh.



/3515 mylife off

Le 01/06/2021 à 10h 42

Merci pour vos réponses.



Si c’est efficace, ou même que cela apporte un boost de perfs non négligeable (sans être à la hauteur du DLSS 2), ce sera toujours bon à prendre…

Le 01/06/2021 à 09h 55

Ce n’est pas la cible de l’article, mais j’aurais été curieux de savoir si cette techno sera utilisable sur les PS5/XsX…

Le 01/06/2021 à 09h 51


woodcutter a dit:


Très intéressé par la RTX 3070Ti, en espérant qu’il y ai vraiment du stock cette fois-ci 😀


Idem, et s’il y a possibilité de préco, j’essayerais de ne pas louper le coche comme je l’ai fait pour les 30703080.



Le prix de 620€ pour la 3070 TI semble presque raisonnable au niveau des perfs auxquelles on devrait pouvoir s’attendre. Il faut maintenant espérer que la dispo soit bien présente.




David_L a dit:


Vu qu’elles sont bridées pour le minage ça devrait aider à éviter l’inflation


Il y a peu, le bridage avait été contourné non ? Ils ont mis en place une solution hardware ?

Le 28/05/2021 à 11h 42

Merci pour l’article. J’aurais été curieux de voir des captures d’écran des premiers DSM (je ne connais que depuis la v5) et les évolutions semblent avoir été importantes côté interface également.



Sinon, même ressenti que d’autres ici : j’ai 4 synology au total (2 chez moi, et 2 sur d’autres “sites” géographiques dans ma famille, avec des synchros des données importantes entre 3 nas.
En dehors d’un DS114J qui s’est toujours montré complètement anémique, mais qui fait à peu près le taf pour des tâches basiques, les autres tournent plutôt bien (DS216play et DS418), avec des usages un peu plus avancés.



Globalement, même si c’est une marque assez chère qui fait payer au prix fort sa renommée et sa remarquable interface, le tout est d’une fiabilité remarquable.



Prochain pallier me concernant, probablement un DS918+ (ou au dessus) pour avoir des perfs plus importantes et une meilleure capacité à encaisser les I/O sur des SSD, etc.

Le 27/05/2021 à 09h 30

Le GPU du M1 ne vaut clairement pas un bon GPU dédié, mais ça semble être ce que l’on fait de plus performant pour de l’intégré.



Après, bien sûr, ça ne fait pas du M1 une machine gamer, mais je suis assez surpris de la manière dont ça tourne (il y a un reddit qui ne cesse de m’étonner).



Mon questionnement était en fait plus lié au fait des perfs obtenues à travers cette couche de virtu sur un os virtuel qui lui même fait tourner des applis exploitant autre architecture (du coup… de l’émulation hardware ?).
Ce côté “ça passe pas si mal” avec toutes ces couches m’étonne grandement.

Le 26/05/2021 à 22h 17


David_L a dit:


C’est déjà possible ;)


Je n’ai pas trop suivi l’affaire, mais il semble d’ailleurs qu’il soit possible de faire tourner des jeux win/x86 de manière très propre en passant par parallels sur le M1.



Et comme il s’agit de jeux relativement costauds (tomb raider, gta 5, etc), c’est un mystère pour moi : du arm qui virtualise un OS arm qui lui même fait tourner des jeux x86, et ce avec un résultat très potable, même pour du natif.

Le 26/05/2021 à 22h 08

Je suis perplexe. Pendant presque une décennie, les SoC ARM ont eu une courbe de puissance du même genre que celle du x86 dans les années +/- 2000, à savoir une évolution extrêmement rapide.



J’ai la nette impression que chez exynos et qualcomm (pour ne parler que de ces deux acteurs majeurs), on est arrivé à une espèce de stagnation, ou en tout cas un tassement énorme de cette courbe.



D’un côté, j’aurais pu le comprendre s’il n’y avait pas eu le “précédent” du M1. Comment plus de 6 mois après la sortie des premières machines intégrant ce nouveau SOC, qualcomm peut-il se pointer avec une itération 6,2% plus “performante” ?



Il y a quelque chose qui m’échappe. Alors ok, on parle de machines low cost, ce que même le premier mba n’est pas. Mais quand même.

Le 25/05/2021 à 17h 38


(quote:1875342:DantonQ-Robespierre)
Les banques d’affaires / d’investissement / Hedge funds ont une particularité : ils recrutent les plus grands cerveaux de la planète (mathématiciens, informaticiens, économistes, experts en tous genres de niveau +++++) et tu auras beau faire, ils seront toujours plus intelligents que toi, plus intelligents que tous les états réunis, plus intelligents que n’importe qui ou quoi.



La crise des subprimes est arrivée parce que ces entreprises se sont rendu compte qu’elles pouvaient faire des profits gigantesques sur les crédits à la consommation, en pariant sur leur non-remboursement (pari négatif).



Ils ont réussis à embrouiller tout le monde : les états, les institutions, les investisseurs et autres boursicoteurs… jusqu’à la rupture, qui était parfaitement prévisible soit dit en passant.


Du coup, j’ai du mal à comprendre. Ce sont des génies absolus, qui ont 26 coups d’avance en toute situation, mais il a bien fallu les renflouer lorsque la bise est venue, avec la grande menace de l’effondrement du système bancaire à la clé (non, je n’y crois pas non plus, mais c’était bien ça qui était en jeu) ?



Et je ne pensais pas spécifiquement à la société générale, même si c’est notre fleuron national à nous :roll:



Je me goure peut être, mais j’ai surtout l’impression que les grosses banques sont à peu près inattaquables, et que malgré la crise des subprimes (entre autres), il n’y a toujours aucune réelle régulation dans le fonctionnement interne.
Et les états, si leur fonction est de réguler (et de vouloir le faire au delà de l’image médiatique), n’ont pas d’impact réel. Un exemple à une échelle assez basse avec un cash investigation récent “nos très chères banques” montrait assez bien le phénomène, avec un ministre qui finissait par admettre à mot couvert qu’ils n’imposaient rien, et que de toute façon les banques faisaient poliment exactement ce qu’elles voulaient, quitte à ne pas respecter les maigres engagements pris après des mois d’âpres négociations.

Le 24/05/2021 à 10h 25


(quote:1875315:DantonQ-Robespierre)
(En sous-texte : “fonctionnement d’une banque” implique : des règles strictes, une comptabilité au cordeau, des contrôles réguliers par une autorité indépendante…


Les mêmes règles strictes et contrôles par une autorité indépendante qui ont mené à la crise des subprimes ?



Allons donc… :non:

Le 23/05/2021 à 09h 38


ekra a dit:


C’est assez dingue comment on accepte bien tout sagement cette mafia qui se ramasse le pactole sans aller au travail.


C’est surtout qu’on a pas le choix, et que le “système” en place est particulièrement bien ancré. Ce qui me pose problème, ce n’est pas tant qu’il y ait des arnaques, c’est le fait qu’il ait été permis qu’elles soient mises en place et perdurent.



Pour avoir un système aussi abusif, il me semble évident qu’il y a eu des bakchichs, ou à minima de sérieux conflits d’intérêts (pour ne pas dire délits d’initiés). Mais étrangement, il n’y a aucune remise en question, et aucune enquête sur le sujet.

Le 21/05/2021 à 15h 00


eglyn a dit:


Purée ça me rappelle le clip des frères qui rappent tout des inconnus, ça leur va tellement bien…


Tu as magnifiquement résumé l’impression que j’ai à la lecture de l’article.




Corleone57 a dit:


ca ne fera qu’amplifier les achats à l’étranger


Juste par réaction épidermique, ça pourrait faire augmenter le piratage.



Je ne comprends pas qu’un tel système puisse exister. Les lobbys ont vraiment une puissance de frappe et une efficacité dans le graissage de patte impressionnants.

Le 25/05/2021 à 17h 29


(quote:1875514:skankhunt42 )
Haha ! Amd for the win ! Bon je suis donc encore victime de l’effet dunning kruger ?



D’ailleurs à l’époque de mongtalet j’allais à surcouf. Ta carte mère neuve ne fonctionne pas ? Remplacée gratuitement en moins d’une heure. Alors qu’a montgalet, tu doit attendre minimum un mois voir +.


Perso, j’y avais des contacts, donc ça aidait énormément en cas de galère potentielle, ce qui ne m’est arrivé qu’une fois pour être honnête.
Mais c’est vrai que la blague de l’époque dans ce genre de boutiques (j’y ai bossé quelques semaines), c’était “garanti jusqu’à la porte”, et j’ai assisté à des scènes assez incroyables dans certains magasins.
Inutile de se pointer en menaçant d’appeler ton avocat ou je ne sais quel institution anti fraude ou de soutien au consommateur. C’est osef tiers direct :roll:
N’y étant pas retourné depuis quasiment dix ans, je ne sais pas si c’est toujours d’actualité, ou même si le quartier est encore aussi actif.



Quant aux prix de surcouf, ben… ce n’est pas pour rien si les petits magasins du quartier cartonnaient autant, malgré une enseigne aussi connue et gigantesque juste à côté :D



Pour en revenir à Intel/amd, c’est lié au fait que bien souvent (que ce soit des potes ou des collègues), ils n’ont connu qu’Intel, et donc se méfient par défaut de l’inconnu (ici AMD).

Le 25/05/2021 à 09h 29


(quote:1875347:skankhunt42 )
Sauf que quand il va déballer l’engin il ce rendra vite compte que c’est une bouse infâme et la prochaine fois il tentera surement de monter sa propre machine



D’ailleurs si je dis pas de conneries, le montage ne coute que 70€, ce n’est pas très cher. Quand au choix des composant tu peut te faire aider sur internet. De toute façon choisir les composant ce n’est pas si dur que ça hein…


Je pense que tu sur-estimes grandement l’utilisateur moyen (qu’il soit gamer ou non).



Il faut avoir un “pied dedans” pour savoir choisir ses composants. Et le montage à 70€, ça va être sur une boutique spécifique, tu n’auras pas forcément tous les composants voulus et à un prix intéressant.



Amazon et compagnie ont simplifié le choix des composants, mais à la “grande époque” ou j’allais chercher physiquement mes composants dans le 12ème à Paris, j’y passais à chaque fois mon après-midi, le temps de me farcir les différentes boutiques.
Et le montage ensuite.



Désormais, quand je me monte ma propre config, je passe malgré tout x heures à me renseigner sur l’état du marché hardware à un instant T, on est très vite largués quand on ne suit pas régulièrement.
Quant au fait se faire aider sur Internet, là aussi, va falloir essayer de distinguer le vrai du faux sur les forums, entre les fans de tels fondeur, de telle marque, en plus de ceux qui assènent des vérités qui n’en sont plus, etc.
A titre d’exemple, alors que je bosse dans l’IT, je sais très bien que si je pose la question du choix du CPU, beaucoup me répondront sans hésiter “Intel” :roll:



Ne vas pas croire que l’utilisateur lambda va s’y mettre aussi facilement, c’est un investissement de temps considérable si on veut faire les choses correctement.

Le 24/05/2021 à 10h 21


(quote:1875273:skankhunt42 )
Car il est clair que le mec qui monte son pc tout seul en général c’est pour économiser de l’argent.


Alors non, je ne crois pas ça une seconde.



Le mec qui monte son pc tout seul, c’est d’abord parce qu’il veut choisir ses composants lui-même, qu’il a le temps et les compétences pour faire les recherches et le montage.
Ou qu’il connaît un autre gars qui fera ces recherches et le montage pour lui.



Celui qui n’y connaît rien ne va pas s’embringuer dans ce genre de démarches, et s’il ne veut pas payer trop cher, il va chez carrefour et il chope “le pc gamer du mois a pas cher” avec des compos dont une partie sera low cost, noname, etc.



Plus globalement, j’imagine que la logique de Shadow, c’était de fonctionner à perte le temps que le service prenne de l’ampleur, devienne connu, et puisse se rentabiliser en augmentant les prix doucement sur une masse considérable de clients une fois que la marque aurait acquis ses lettres de noblesse.
Un peu à l’image des fabricants de smartphone comme OnePlus ou Xiaomi (et bien d’autres) qui ont démarré avec une stratégie ultra agressive en terme de tarification, pour ensuite gonfler les prix.

Le 22/05/2021 à 23h 39


seboquoi a dit:


Oui, mais 1080p maximum et machine limitée. J’ai essayé plusieurs fois je suis pas convaincu.


Idem. A chaque fois que j’ai voulu tester leur offre (en premium), c’était pour avoir mieux que ma bécane perso (notamment pour ma “vieille” gtx 1080).
Le résultat sur plusieurs jeux n’a clairement pas été à la hauteur, et à chaque fois, ma config fait mieux, partiellement à cause du CPU embarqué sur la solution de Nvidia qui est un point bottleneck.



Le point comparable avec Shadow, même si les infrastructures n’ont rien à voir, c’est peut être la rentabilité. Espérer un service de haute volée pour 15 balles par mois est sans doute irréaliste.

Le 13/05/2021 à 23h 37

Nom de Zeus, tout ce sel déversé :ooo:



Ça montre à quel point le sujet est toujours hautement touchy, mais (pour ceux qui s’écharpent sans fin), dites vous simplement qu’il est vain d’imaginer de convaincre le “camp d’en face”, quelque soient vos arguments, tant que votre interlocuteur n’est pas dans une posture réceptive.



Vu que l’on est sur un forum “tech”, imaginez un pro-Nintendo vouloir convaincre un pro-Sony. :D



Sinon, merci pour l’article de récapitulatif, j’avoue avoir été très surpris également de le voir sur ce site, mais j’ai capté en lisant les commentaires.

Le 13/05/2021 à 09h 58

je suis plutôt d’accord, mes ados je leur montre comment faire un MP3 a partir d’un cd ou d’une vidéo, il ne voient pas l’interet grâce a deezer ou spotify voir youtube, dans mon entourage dans les années 2000 tous le monde copiaient les CD a tour de bras et se les refilaient, sur les marché des stand vendaient des cd copier avec leur couverture imprimé en couleur :), maintenant c’est le téléphone/smartphone qui sert a écouter la musique, et leurs cd copié prennent la poussière



Même pour graver une iso mes parents préfère acheter une revue avec le cd.



perso je dirais que carrément il n’y a plus de contrefaçon, ou c’est vraiment à la marge. les rayons de dvd cd vierge dans les super marché ont été remplacé par une seule référence de cd et dvd.

Et pour ceux qui n’ont pas trop les moyens, il reste 1/les offres gratuites comme spotify avec la pub 2/le téléchargement tipiak



De toute façon, il suffit de voir nos machines depuis quasiment 10 ans : il n’y a même plus de lecteurs/graveurs cd/dvd/br embarqués sur les pc & mac portables.
Et sur les tours PC, bien souvent, il n’y a même plus aucun emplacement 5.25 en façade (sur la mienne ,de 2018, la face avant est dédiée à trois gros ventilos + un filtre qui occupe toute la surface).



Pour moi, ça démontre visiblement le fait qu’il n’y ait plus de demande de la part du public.

Le 12/05/2021 à 16h 56

C’est un vieux sujet des années 2000 ça :D



Cette idée (vraiment pas bête) a été enterrée direct par les ayants-droits de l’époque qui ont immédiatement fait une levée de boucliers pour expliquer à quel point c’était un manque à gagner pour eux.
Souvenons-nous avec émotion de l’incroyable présence médiatique de certains portes paroles comme Pascal Nègre, cherchant à défendre son bout de steak, et à faire peur aux vilains méchants pirates qui trouvaient un moyen de ne plus acheter des média physiques hors de prix.



Résultat, 10-15 ans plus tard, nous sommes passés à une forme de licence globale, sous la bannière des Spotify, Netflix, MS Gamepass, et les ayants droits ont plié, vu l’impossibilité de freiner cette marche forcée de l’accès dématérialisé.



Je ne connais pas l’évolution du piratage depuis sur les deux dernières décennies en France, mais j’ai tendance à penser que ça a sérieusement du baisser, vu la simplicité et l’efficacité de ces offres (certes, pas gratuites) et le changement des modes de consommation.

Le 12/05/2021 à 14h 27


L4igleNo1r a dit:


Sauf que a cette époque, tu avais déjà des protections anti-copie. Hors tu n’as pas le droit de les casser. Une copie de DVD ou tu as cassé le verrou n’est pas légal donc ne rentre pas dans le champs de cette taxe.


Je ne me souviens pas de protections anti-copie, mais je te crois sur parole.



Du coup, on est bien d’accord qu’il y a un énorme problème avec une taxe qui te fait payer un droit, lui même au final limité parce que les ayants-droits font tout pour te priver de ce droit.



Ça n’a aucun fichu sens. :reflechis: Sauf si on part du principe que le droit à la copie privée est juste une autre expression pour “taxation compensatoire liée au piratage”.

Le 11/05/2021 à 15h 03

Je pensais à la copie vinyle -> vinyle :D



Mais sinon oui, tout le flux audio que tu pouvais faire passer par l’ampli pouvait être enregistré sur un support comme une cassette audio.

Le 11/05/2021 à 15h 00

Dites, rien à voir avec le sujet, mais je suis le seul à avoir des bugs sur le forum ?



Là je voulais éditer mon dernier post… et ma modification a sauté pendant que je la faisais. Vu que ce n’est pas la première fois, je commence à me dire que ce n’est forcément une fausse manipe de ma part…

Le 11/05/2021 à 14h 53


(quote:1872866:Idiogène)
La redevance date de 1985.


Ca n’enlève rien (au contraire), c’est juste que ce n’est pas mon époque.



Mais le phénomène de copie privée existait déjà à cette période, et pas qu’un peu : copies de VHS, cassettes audio, jeux vidéo et softs (disquettes).
Le seul truc qui a du être difficile à pirater, j’imagine que c’était les vinyles et les laserdiscs. :roll:



Par contre, à notre époque ou ces services sont grandement dématérialisés, cette taxe à d’autant moins de pertinence.




Barzelito a dit:


Sérieusement l’un de vous a déjà vu des copies licites ? Ces 10 dernières années j’entends


Non.

Le 09/05/2021 à 08h 01

Cette taxe n’est pas là pour compenser le piratage mais la copie privée légale qui ferait baisser les ventes car l’acheteur n’achète qu’une seule fois l’oeuvre (notons l’usage du conditionnel car il n’y a pas de preuve que la copie privée fait effectivement baisser les ventes, et que si elle le fait, le montant soit comparable à ce qui est récolté)

Je me pose la question de savoir si ce n’était pas un jeu sur la sémantique pour ne pas employer le mot “piratage”.



C’est moins vrai aujourd’hui, mais à l’époque de l’apparition de cette taxe, Internet n’était pas encore si démocratisé, globalement assez cher, sans même parler de la bande passante, ridicule en comparaison.



Ce que je veux dire par là, c’est que cette taxe remonte à une période ou le piratage, c’était moins télécharger sur le web que de se débrouiller pour louer des films en DVD (au magasin du coin) pour les ripper/compresser ensuite, et en faire profiter son entourage via des divx.
Idem pour les MP3 basés sur les CD audio d’un pote, d’un voisin, etc.



Et souvenons-nous également du business qu’il y avait dans les cours de collège à base de jeux console type playstation 1, ou ceux qui avaient la chance d’avoir un graveur avaient un parc de client local conséquent. Idem pour les PC, dans une moindre mesure.



A cette période là, oui, ce principe de taxe aurait pu avoir clairement un sens (si on lui accolait celle du piratage), aujourd’hui elle est caduque (depuis longtemps).

Le 08/05/2021 à 10h 41

doublon

Le 08/05/2021 à 10h 36

Ce que je trouve curieux, c’est que le problème est prix par le mauvais bout de la lorgnette, et surtout que personne ne s’en émeuve.



Le problème de base, à mon sens, qui doit être combattu par les ayants-droits, c’est ce qui est considéré comme du piratage d’œuvres copyrightées (qui génère donc cette taxe débile qui revient au final à une espèce de TVA dans sa mise en application universelle).



C’est un peu comme coller une amende universelle pour excès de vitesse à tous ceux qui conduisent, parce que potentiellement, ils pourraient bien dépasser la vitesse autorisée.



Donc plutôt que de taxer les usagers, qu’ils piratent ou non, il faudrait peut être mettre en place des moyens pour empêcher ledit piratage (sans même parler d’Hadopi, qui est donc manifestement considéré comme inexistant, mais que l’on paye également nos impôts ?).



Ou alors cette taxe serait-elle tout simplement bien plus bénéfique pour les ayants-droits que de prendre le problème à la racine ? Et que l’on ne vienne pas me dire qu’il est impossible techniquement de mettre des barrières efficaces.



Au vu de la somme engrangée indiquée dans l’article, j’ai tendance à penser que “la question est vite répondue”.

Le 12/05/2021 à 14h 43


OlivierJ a dit:


Dans ton cas en effet ; de mon côté je vois essentiellement du MySQL/MariaDB et du PostgreSQL. De plus en plus de boîtes réalisent qu’on n’a absolument pas besoin du “gros” (et onéreux) Oracle dans une grande quantité de cas.


Non, tant que tu n’a pas des bases critiques dont les perfs ont un impact majeur sur les traitements métier.
Par contre, dès que c’est le cas, oracle te permet de choper à peu près toutes les infos imaginables sur le traitement d’une requête, de son interprétation par le moteur sgbd, pour te permettre de pointer la problématique afin de résoudre le problème de façon efficace.
Après, il faut les compétences nécessaires, et pouvoir se payer un dba, voire un dba spécialisé en perfs.



J’aurais bien voulu citer le support oracle dans les qualités du produit, mais ça, c’est plus compliqué :roll:




Parmi ce qui m’avait frappé, c’est que ça prenait littéralement des heures d’installer un Oracle, là où un PostgreSQL prenait 10-15 minutes configuration comprise et sans se presser, et disposait déjà de pas mal de fonctions (procédures stockées, triggers, etc.) grâce à quoi une migration depuis Oracle n’était pas forcément si compliquée.


Ce qui est long dans l’installation d’un sgbd oracle, c’est la partie “moteur”, et notamment le respect des pré-requis OS (entre que les packages de preinstall oracle aident pas mal).
Une fois que ton environnement est prêt et normalisé, tu peux déployer des bases via des scripts dans un temps assez court. Même via l’interface graphique de création, ça doit se faire à peu près dans cet ordre de temps.

Le 11/05/2021 à 12h 43


OlivierJ a dit:


(je bosse dans le même domaine) De quelles solutions métiers tu parles ? La plupart de celles que je vois tourner sont Open Source.


Pour mon client actuel, un peu en vrac : entre les solutions développées en interne (dont celles historiques figées dans le marbre) et celles qui ne seront jamais portées vers une nouvelle architecture, ça fait du monde. Sans même parler de la partie infra comme des moteurs SGBD comme Oracle ou sql server, ou même weblogic, il est clair que le switch n’est pas pour demain.



Mais je te rejoins sur un point, si prochainement l’archi ARM devient la nouvelle référence, les acteurs majeurs s’adapteront.




Si AMD était “à l’ouest”, c’est bien que ce n’est pas facile de faire des progrès (ou ce n’est plus facile depuis quelques années, ce qu’il est facile de constater). Et il y a toujours eu de la concurrence (sinon AMD n’existerait plus).


Facile non, mais AMD a fait énormément d’erreurs à une période (l’archi Bulldozer de mémoire), et ils en ont payé le prix. Pour être franc, s’il n’y avait pas eu les xbox et playstation pour se refaire une santé, je ne suis pas certain qu’AMD tel qu’on le connaît aurait survécu.
Et oui, AMD étant présent à l’époque sur le marché, c’est une forme de concurrence, mais ça reviendrait à dire que MacOS est un concurrent pour Windows. La situation a évolué (heureusement), mais pendant longtemps, les CPU AMD n’étaient vraiment pas recommandables, quel que soit le marché.

Le 10/05/2021 à 20h 44


OlivierJ a dit:


au mieux c’est une simple recompilation, au pire il y a un peu d’adaptation mais c’est pas réellement une énorme tâche. La plupart des applications serveurs tournent sous Linux



Je bosse dans de la prod/projet IT, et clairement, je doute que mon client actuel (assez conséquent et friqué) passe à court/moyen terme sur du ARM. Pour ne prendre que cet exemple, c’est loin d’être le seul.
Parce que les solutions métiers ne sont pas actuellement portées vers du ARM (et pour mon taf, je serais surpris que ça arrive demain matin).



J’aimerais avoir des éléments un peu plus concrets comme quoi Intel se serait endormi.


Comme je le disais, il y a un dossier assez conséquent et documenté chez CPC hardware, je te laisse t’y intéresser si tu t’interroges sur la question.




Personne ne t’obligeait à acheter de l’Intel. Et si c’était si facile de faire mieux que 10 %, pourquoi personne ne l’a fait ?


Je m’étonne de ta question. Parce qu’AMD était à l’ouest (c’est un euphémisme), et qu’il n’y avait aucune concurrence.



C’est ce que l’on appelle un monopole. Ou plus justement, un oligopole.



Ceci dit, je peux comprendre ton scepticisme sur mon ressenti, mais il y a d’une part un réalité technologique (le arm c’est bien mais pas quand on veut de la perf pure “métier”), et en plus un effet d’inertie qui fait que les SI sont frileuses à l’idée d’investir lourdement dans des technos qui ne sont pas validées.
Dis toi qu’actuellement, malgré le fait que l’on soit à plusieurs générations d’AMD qui ont fait leur preuve, Intel continue à être privilégié sur le renouvellement d’infra. Alors un changement aussi radical que ARM… Ca arrivera, si l’archi ARM fait ses preuves, mais ce n’est pas sur les 23 ans à venir.

Le 09/05/2021 à 15h 37


OlivierJ a dit:


Pour tous ceux qui utilisent Linux (à titre pro ou perso), le portage n’est pas un souci et si ARM se met à occuper la niche de la performance (déjà qu’ils sont les plus forts sur la performance/watt), ça va être vite adopté.


Pour être franc, j’avais exclu Linux de l’équation, pour la simple raison que dans le monde pro, je doute que l’on passe avant (à minima) 5 à 10 ans sur de l’archi ARM, vu que l’on parle d’une utilisation (il me semble) globalement serveur, qui font eux même tourner des applicatifs servers en x86.
Et je n’ai pas l’impression que Linux arrive à s’imposer en quoique ce soit sur la partie desktop, dans le pro comme chez le particulier. Mais je me goure peut être ?
Même si c’est le cas, il faudra tout de même que les applis utilisées en desktop soit portées sur ARM. Dans le cas d’apple et de son écosystème plus restreint et maîtrisé, il subsiste malgré rosetta 2 encore pas mal d’incompatibilités partielles et totales.




Ça me fait toujours sourire ce genre de propos, comme si continuer à faire progresser la puissance des processeurs était trivial et qu’Intel n’avait pas essayé…


Ce n’est évidemment pas trivial, mais le fait est qu’Intel s’est endormi sur ses lauriers pendant sa trop longue phase de monopole, et a enchaîné les décisions foireuses, et notamment les projets tués dans l’œuf parce que le développement n’allait pas assez vite selon le CEO de l’époque.



Et même si la situation ne peut pas être si simplement résumée, c’est majoritairement la faute d’Intel si AMD à pu ressurgir de la sorte, et également une erreur considérable d’Intel de ne pas avoir planché sur le renouveau de l’architecture actuelle dont la base remonte tout de même au centrino de 2003 (lui même basé sur le P3).
Sans même parler de l’incroyable hold up d’une décennie ou on nous a vendu des CPU avec 10% de perf de plus annuellement, quand on avait du bol.



Un gros dossier de CPC hardware d’il y a 23 ans avait listé toutes les erreurs du CEO, la fuite des cerveaux , etc. Ils avaient prédit qu’Intel payerait le prix de sa gestion calamiteuse, et partirait dans le rouge, à voir s’ils ont vu juste ou non.



Quelque part, je me réjouis à titre personnel de l’enlisement d’Intel, car AMD n’aurait sans doute pas pu revenir dans la course, et le monopole n’est jamais bon en quoi que ce soit.

Le 08/05/2021 à 20h 07

La supériorité du ARM M1 sur le x86 concernant les machines mobiles ou avec des contraintes thermiques/consommation (comme le mac mini) me semble assez évidente.



La question à mon sens est de savoir si Apple va réitérer son coup de force avec les machines qui n’ont pas ces contraintes, et qui vont affronter de manière directe les gammes x86 desktop axes perf. Si c’est le cas, Apple va devenir un nouveau fondeur majeur.



Mais si on exclut Apple de l’équation, Qualcomm ne semble pas pour le moment en mesure de fournir une solution qui puisse rivaliser de près ou de loin avec le monde x86 actuel.



Quant au monopole d’Intel pendant quasiment une décennie, oui, il semble clair que ça a été particulièrement néfaste.

Le 08/05/2021 à 11h 05


vVDB a dit:


A 4K on est à la limite physiologique humaine, il n’y a que 4 millions de capteurs couleur dans un œil. Donc quand on utilise un écran on doit être à 2K car on n’est pas immergé dans l’écran !


C’est évidemment bien plus complexe que ça.



La question finale étant quelle utilité on trouve à une finesse d’affichage permettant de ne plus percevoir les pixels (associé au la taille de la dalle et à la distance de l’écran).



Perso, j’ai un 32” en QHD. Un des intérêts d’une telle taille est de ne pouvoir me passer du port de mes lunettes (myopie moyenne+astigmatisme léger) quand je bosse sur mon écran (8h par jour pour le taf + le temps perso). Je suis à environ 70cm de mon écran.
Malgré ça, je n’aurais rien contre une résolution de 6k voire 8K pour avoir la même finesse d’affichage que je retrouve sur mon macbook (écran retina) ou ma surface pro (équivalence retina).

Le 07/05/2021 à 17h 18


Steez a dit:


J’espère que Intel rattrapera le coup avec sa génération Alder Lake, ça fera du bien à tout le monde la concurrence dans son milieu. Surtout avec ARM qui pointe son nez.


A court/moyen terme, je ne pense pas que l’architecture ARM présente un grand danger. Déjà parce qu’en dehors du M1 d’Apple, les performances sont trop faibles pour prétendre à se comparer frontalement aux solutions x86.
Ensuite parce que le parc applicatif n’est pas prêt (au sens porté) pour du ARM.



Le réel combat actuel est (de mon point de vue) entre Intel et AMD.

Le 11/05/2021 à 16h 58


Zerdligham a dit:



En tant que responsable SSI d’un boite, si tu as une grande confiance dans le fait que tes utilisateurs n’utilisent leur mot de passe pro que pour les applis pros


Un RSSI qui fait “confiance” aux utilisateurs du SI, je pense que c’est foncièrement impossible.



Par contre, j’avoue ne pas comprendre pourquoi une norme n’est pas imposée aux utilisateurs concernant les mdp. A titre d’exemple, imposer une solution type keepass, et également imposer un profil de génération de mdp complexe, et un renouvellement généré par le même outil (donc plus d’itération sur 2 ou 3 même mdp en boucle pour tromper le système).



Dans la pratique, ça permettrait un niveau de sécurité plus haut, sans complexifier la vie à l’utilisateur qui n’aurait plus qu’un mot de passe à retenir pour accéder à son keepass.
Et à l’utilisation, c’est du copier/coller, donc rien d’inabordable même pour l’utilisateur lambda.



Alors oui, ça demanderait une sensibilisation, de la pédagogie, et un minimum d’accompagnement, mais cela en vaut sans doute le coup/coût.

Le 07/05/2021 à 15h 21

Ou tout simplement les utilisateurs vont mettre en place ce que l’on appelle du shadowIT. Pour la petite histoire, il y a quelques années j’ai trouvé une box étrangère dans une grosse boite tout simplement pour passer outre les règles trop contraignantes du parefeu maison.

Je ne connaissais pas. Le cas dont tu parles, je suppose que ça peut carrément mener à la perte de l’emploi de celui/ceux qui ont mis ça en place, vu que tu créé potentiellement une faille de sécurité au sein du SI.



Et sur le wiki :
“Une autre étude3 confirme que 35 % des salariés estiment devoir contourner des procédures officielles ou des mesures de sécurité afin de pouvoir travailler efficacement.”

Le 07/05/2021 à 14h 15

doublon

Le 07/05/2021 à 14h 09

Chez nous c’est 14 caractères min avec caractères spéciaux, maj, min et chiffre ^^
Bon, on le change tous les 180 jours c’est déjà ça :D
Et pour les admin, c’est 21 caractères mini :D



Et historique à 7 mdp.

A peu près la même politique de sécurité pour mon client, à part qu’il a la bonne idée de nous imposer plusieurs comptes pour gérer son infra, suivant les périmètres, avec des timeouts ssh, des timeout sur les sessions RDP, timeout sur le vpn qui est la porte d’entrée, sans parler de toutes les interruptions qui sont accidentelles (et sur lesquelles aucune recherche réelle n’est faite).



Un joli foutoir, qui génère un agacement conséquent y compris de la part du SI qui est de fait complètement gavé par cet environnement hostile. L’analogie utilisée à la fin de l’article est à cette image : protéger la baraque sans empêcher aux locataires “legit” d’y entrer.



Et cette sécurité proche du débilitant à exactement l’impact cité : certains vont utiliser un keepass parce que ça fait partie de leurs habitudes, les autres vont mettre ça sur des papiers, des carnets de note, etc…



Il y a un vrai problème pour certains SSI de condescendre à générer l’effort de trouver un équilibre, et se placer du point de vue de l’utilisateur. Au lieu du leur qui consiste bêtement à foutre des verrous absolument partout, sans cohérence, et sans réfléchir outre mesure.

Le 07/05/2021 à 15h 29

Un peu deg’.



Le jeu ne peut pas se lancer sans ray tracing activé (une première), et refuse de se lancer sur ma 1080 :cartonrouge:



Du coup, il faudra que j’attende 2023 le temps de choper une rtx 5080 :roll:

Le 07/05/2021 à 12h 09

Je n’ai pas vu la possibilité d’installer spécifiquement la version enhanced (j’ai déjà la version classique installée).
Pas grave, j’ai récupéré les sources d’installation, c’est de toute façon un des avantages de GOG (ne pas être dépendant du store).

Le 07/05/2021 à 10h 36

Au delà des nouvelles technos type RT et DLSS dont je ne peux pas profiter via mon antique gtx 1080, il y a également d’autres améliorations dont celle que j’attendais vraiment, à savoir des textures retapées, car celles d’origine oscillaient entre le bon et le parfois incroyablement médiocre (bien loin des standards des dernières années).



Et en effet, il a été mis a dispo sur GOG, ainsi que ses DLC en version enhanced, le tout gratuitement pour celui qui avait les versions antérieures.
Par contre, sur cette plate forme, c’est à télécharger en 23 fichiers distincts. On se croirait revenu à la glorieuse époque du warez des années 2000 :roll:

Le 07/05/2021 à 10h 05

Cette pompe a fric absolument monumentale qu’est WoW, est encore plus incroyable avec ce coup de génie de sortir les jeux d’origine, 15 ans après, et d’avoir ainsi fait revenir une “vieille” communauté qui se sent bien mieux dans ses charentaises déjà bien fatiguées.



Pour avoir été moi-même un pigeon, et avoir recommencé “Classic” au moment de sa sortie, je n’ai pas réussi à dépasser le level 15, abruti par l’ennui insondable que me procure ce levelling basé sur un grind devenu repoussant pour moi.
Malgré tout, ce Burning Crusade génère quand même une envie dans mon petit cœur flétri. Heureusement que les 40 balles requis sont là pour me raisonner :non:

Le 07/05/2021 à 07h 58


wackyseb a dit:


Bon finalement il ne manque plus que Synology a se bouger le popotin pour enfin mettre un processeur digne de ce nom ainsi que des prises Lan multigig en 2,5g ou 5g voir soyons fou du multigig jusque 10g pour assurer l’avenir.


C’est surtout que le particulier se contente globalement assez facilement d’un port en gigabit, voire d’une agrégation de lien en 2x1Gb (et pour les gammes un peu plus hautes, on peut monter à du 4x1Gb).



Au vu des perfs atteignables (en parallèle), et des prix de certains switchs supportant l’agrégation de liens, ça couvre déjà énormément d’usages.



Par contre, là ou Synology devrait faire le taf en profondeur c’est d’uniformiser ses applis plutôt que de les multiplier à l’infini. Et peut être aussi de nous sortir son interface DSM7 qui n’en finit plus d’être retardée.

Le 05/05/2021 à 21h 56


(quote:1871856:brice.wernet)
Par contre, un vieux core solo, un i7 4702, un i5 9500T: que du bonheur.



C’est peu prédictible en fait, et c’est dommage.


De ma petite expérience, mon ressenti est que côté support matériel, Linux est souvent à la bourre, et les machines qui ont tourné avec la plus grande stabilité étaient… des vieux bousins d’un paquet d’années.



Evidement, il ne faut probablement pas tenter le diable avec des machins trop exotiques, mais c’est là ou Linux prend un avantage conséquent sur Windows, en donnant une seconde (voire troisième) vie à des machines qui se traîneraient autrement sur un OS “contemporain”. Typiquement, LXLE qui tourne comme une balle sur un antique core2duo.

Le 05/05/2021 à 17h 09


Okki a dit:


Je conseillerais surtout de bien choisir son matos. D’éviter nVidia et de préférer une solution Intel ou AMD avec des pilotes libres permettrai d’éviter bien des problèmes. Peu importe le type de matos, il y aura toujours des constructeurs à éviter ou des solutions à privilégier.


En effet, je connais le problème, mais J’avoue que je n’avais pas choisi le hardware en fonction de Linux.



Par contre, c’était une plate forme très commune en 2018 (un portable HP a base d’Intel i5 de gen 8 + hd 620), rien de très particulier.
Sur les quatre distrib testées (fedora/ubuntu/mint/lxle), j’ai eu différentes galères. Rien de complètement bloquant, mais assez pénible pour m’en dissuader.



Au delà du problème d’accélération graphique assez pénible - et partiellement résolu via pas mal de recherches -, quelque soit la distro, j’ai eu un problème de côté audio.
Pas de saturation ou autre blague du genre, mais juste le fait que l’appli HP/B&O qui ajoute une couche de traitement audio sous windows n’existe pas sur Linux, donc on a le son “non traité”, et c’est une horreur. Le bidoullage via l’equalizer n’aura pas fait grand chose de mieux.



Et de mémoire, l’autonomie était assez mauvaise également.



Au final, ça revient à ce que je reproche à Linux depuis une vingtaine d’années : ça marche, mais toutes ces petites pétouilles plus ou moins handicapantes font qu’à titre perso, je finis par retourner sur windows, par dépit. Avec l’espoir que 2 ou 3 ans plus tard, ça marchera “mieux”.



C’est au final la force absolument énorme d’un windows, quelque soit son avis sur cet OS : ça marche sur à peu près n’importe quel hardware même exotique, sorti entre 1985 et 2021.



Dans l’absolu, tu as raison, il faut avant d’envisager l’achat d’un hardware vérifier que tout sera parfaitement compatible.
D’ailleurs, à une époque (révolue ?), Dell avait une page de support Linux qui permettait de récupérer tous les drivers nécessaires.