Tu as raison, n’importe quel stagiaire devrait pouvoir accéder à la configuration des systèmes stratégiques !
Dans le genre interprétation et déformation de ce que j’ai pu écrire, tu tiens le haut du pavé.
Respire, relis plus posément (tous les mots), et ça va nettement mieux se passer
Le
03/06/2021 à
15h
11
(quote:1877415:j-dub) J’avais fait de la presta quelques années chez Orange y’a dix ans et dans mes souvenirs c’était administratif à fond, fallait toujours remplir des formulaires, faire des demandes d’accès, etc… Lourdingue mais on pouvait pas toucher à de la prod facilement.
Oui, à part qu’à force de créer des process imbitables, des formulaires bleus x42.27 à faire signer par des sous chefs pas dispos, il finit toujours par y avoir un bypass oral à un moment “pour faire avancer, sinon on va pas s’en sortir”.
Ça fait X années que je bosse dans des grosses boîtes, et à un moment donné, toutes ces process qui gonflent tout le monde finissent par être joyeusement court-circuités, à l’occasion.
Évidemment, dans ce cas de figure, il y a forcément eu une boulette à un certain niveau, et il est probable que des têtes tombent. Après, l’emballement de “monsieur le ministre” qui va souffler dans les bronches de S Richard, c’est un osef total.
Et pour l’anecdote, j’ai connu un admin sys de FT, qui m’expliquait (il y a une dizaine d’années) qu’ils avaient des vieux tromblons en salle serveur que personne n’administrait ou ne savait ce qui pouvait bien tourner dessus, mais que personne ne débranchait “au cas où”
Par contre, j’ai toujours du mal avec le manque de “touches” du clavier qui obligent à retenir des raccourcis un peu alambiqués.
Tout pareil. On s’y fait, mais c’est lourd, et idem avec les touches qui ne sont pas au même endroit (le @ par exemple).
Le
02/06/2021 à
08h
25
fofo9012 a dit:
Je n’ai pas essayé cette version mais je ne trouve le centre de contrôle soit une réussite. Déjà sur iphone ça s’affiche toujours quand t’essaie de scroller, et à l’inverse c’est impossible de trouver quel bord de l’écran fait quelle action quand t’en a besoin (un peu comme la prise USB qu’on retourne 3x avant de trouver le bon sens :) ). Reprendre cette mauvaise idée telle quelle sur macOS ne me semble pas un travail d’ergonome…
Ce n’est pas le cas ici : par défaut, on l’affiche via un swipe vers la gauche, à partir du coin supérieur droit du trackpad. J’ai bien du l’afficher une ou deux fois par erreur, mais ça se passe bien globalement.
Le
01/06/2021 à
22h
32
KP2 a dit:
Je n’arriverait décidément jamais à comprendre cette allégation…
A l’inverse, peux-tu développer pourquoi tu ne peux pas comprendre cette allégation ?
Le
01/06/2021 à
18h
46
/3615 mylife ON
J’ai du bol.
J’avais commencé mon aventure mac à la période “dorée” (10.3⁄10.4⁄10.5) en découvrant un OS qui avait une énorme longueur d’avance sur Windows XP/vista à l’époque. Et j’avais commencé à lâcher aux alentours de 2010⁄11, ou W7 avait des arguments intéressants, et ou OsX ne progressait pratiquement plus, loin de la débauche de nouvelles fonctionnalités “cool” d’une période.
Et il y a deux mois, assez hypé par le M1, et à la recherche d’un OS peut être moins gourmand de nos informations personnelles (coucou W10), et linux n’étant vraiment pas assez optimal pour un environnement desktop, me revoici donc avez Big Sur via un MBA de base. Et j’ai beau être agacé par la fermeture de l’écosystème d’apple, je dois bien admettre que l’OS est vraiment agréable, bien optimisé, et toujours aussi séduisant par son côté polish que Windows est étonnamment loin d’avoir.
Cet article, ainsi que les précédents, me confirment que j’ai donc “zappé” toute la longue période ou OsX s’est peaufiné, a gagné une certaine maturité, mais ou l’actualité OsX était… meh.
Très intéressé par la RTX 3070Ti, en espérant qu’il y ai vraiment du stock cette fois-ci 😀
Idem, et s’il y a possibilité de préco, j’essayerais de ne pas louper le coche comme je l’ai fait pour les 3070⁄3080.
Le prix de 620€ pour la 3070 TI semble presque raisonnable au niveau des perfs auxquelles on devrait pouvoir s’attendre. Il faut maintenant espérer que la dispo soit bien présente.
David_L a dit:
Vu qu’elles sont bridées pour le minage ça devrait aider à éviter l’inflation
Il y a peu, le bridage avait été contourné non ? Ils ont mis en place une solution hardware ?
Merci pour l’article. J’aurais été curieux de voir des captures d’écran des premiers DSM (je ne connais que depuis la v5) et les évolutions semblent avoir été importantes côté interface également.
Sinon, même ressenti que d’autres ici : j’ai 4 synology au total (2 chez moi, et 2 sur d’autres “sites” géographiques dans ma famille, avec des synchros des données importantes entre 3 nas. En dehors d’un DS114J qui s’est toujours montré complètement anémique, mais qui fait à peu près le taf pour des tâches basiques, les autres tournent plutôt bien (DS216play et DS418), avec des usages un peu plus avancés.
Globalement, même si c’est une marque assez chère qui fait payer au prix fort sa renommée et sa remarquable interface, le tout est d’une fiabilité remarquable.
Prochain pallier me concernant, probablement un DS918+ (ou au dessus) pour avoir des perfs plus importantes et une meilleure capacité à encaisser les I/O sur des SSD, etc.
Le GPU du M1 ne vaut clairement pas un bon GPU dédié, mais ça semble être ce que l’on fait de plus performant pour de l’intégré.
Après, bien sûr, ça ne fait pas du M1 une machine gamer, mais je suis assez surpris de la manière dont ça tourne (il y a un reddit qui ne cesse de m’étonner).
Mon questionnement était en fait plus lié au fait des perfs obtenues à travers cette couche de virtu sur un os virtuel qui lui même fait tourner des applis exploitant autre architecture (du coup… de l’émulation hardware ?). Ce côté “ça passe pas si mal” avec toutes ces couches m’étonne grandement.
Je n’ai pas trop suivi l’affaire, mais il semble d’ailleurs qu’il soit possible de faire tourner des jeux win/x86 de manière très propre en passant par parallels sur le M1.
Et comme il s’agit de jeux relativement costauds (tomb raider, gta 5, etc), c’est un mystère pour moi : du arm qui virtualise un OS arm qui lui même fait tourner des jeux x86, et ce avec un résultat très potable, même pour du natif.
Le
26/05/2021 à
22h
08
Je suis perplexe. Pendant presque une décennie, les SoC ARM ont eu une courbe de puissance du même genre que celle du x86 dans les années +/- 2000, à savoir une évolution extrêmement rapide.
J’ai la nette impression que chez exynos et qualcomm (pour ne parler que de ces deux acteurs majeurs), on est arrivé à une espèce de stagnation, ou en tout cas un tassement énorme de cette courbe.
D’un côté, j’aurais pu le comprendre s’il n’y avait pas eu le “précédent” du M1. Comment plus de 6 mois après la sortie des premières machines intégrant ce nouveau SOC, qualcomm peut-il se pointer avec une itération 6,2% plus “performante” ?
Il y a quelque chose qui m’échappe. Alors ok, on parle de machines low cost, ce que même le premier mba n’est pas. Mais quand même.
(quote:1875342antonQ-Robespierre) Les banques d’affaires / d’investissement / Hedge funds ont une particularité : ils recrutent les plus grands cerveaux de la planète (mathématiciens, informaticiens, économistes, experts en tous genres de niveau +++++) et tu auras beau faire, ils seront toujours plus intelligents que toi, plus intelligents que tous les états réunis, plus intelligents que n’importe qui ou quoi.
La crise des subprimes est arrivée parce que ces entreprises se sont rendu compte qu’elles pouvaient faire des profits gigantesques sur les crédits à la consommation, en pariant sur leur non-remboursement (pari négatif).
Ils ont réussis à embrouiller tout le monde : les états, les institutions, les investisseurs et autres boursicoteurs… jusqu’à la rupture, qui était parfaitement prévisible soit dit en passant.
Du coup, j’ai du mal à comprendre. Ce sont des génies absolus, qui ont 26 coups d’avance en toute situation, mais il a bien fallu les renflouer lorsque la bise est venue, avec la grande menace de l’effondrement du système bancaire à la clé (non, je n’y crois pas non plus, mais c’était bien ça qui était en jeu) ?
Et je ne pensais pas spécifiquement à la société générale, même si c’est notre fleuron national à nous
Je me goure peut être, mais j’ai surtout l’impression que les grosses banques sont à peu près inattaquables, et que malgré la crise des subprimes (entre autres), il n’y a toujours aucune réelle régulation dans le fonctionnement interne. Et les états, si leur fonction est de réguler (et de vouloir le faire au delà de l’image médiatique), n’ont pas d’impact réel. Un exemple à une échelle assez basse avec un cash investigation récent “nos très chères banques” montrait assez bien le phénomène, avec un ministre qui finissait par admettre à mot couvert qu’ils n’imposaient rien, et que de toute façon les banques faisaient poliment exactement ce qu’elles voulaient, quitte à ne pas respecter les maigres engagements pris après des mois d’âpres négociations.
Le
24/05/2021 à
10h
25
(quote:1875315antonQ-Robespierre) (En sous-texte : “fonctionnement d’une banque” implique : des règles strictes, une comptabilité au cordeau, des contrôles réguliers par une autorité indépendante…
Les mêmes règles strictes et contrôles par une autorité indépendante qui ont mené à la crise des subprimes ?
Allons donc…
Le
23/05/2021 à
09h
38
ekra a dit:
C’est assez dingue comment on accepte bien tout sagement cette mafia qui se ramasse le pactole sans aller au travail.
C’est surtout qu’on a pas le choix, et que le “système” en place est particulièrement bien ancré. Ce qui me pose problème, ce n’est pas tant qu’il y ait des arnaques, c’est le fait qu’il ait été permis qu’elles soient mises en place et perdurent.
Pour avoir un système aussi abusif, il me semble évident qu’il y a eu des bakchichs, ou à minima de sérieux conflits d’intérêts (pour ne pas dire délits d’initiés). Mais étrangement, il n’y a aucune remise en question, et aucune enquête sur le sujet.
Le
21/05/2021 à
15h
00
eglyn a dit:
Purée ça me rappelle le clip des frères qui rappent tout des inconnus, ça leur va tellement bien…
Tu as magnifiquement résumé l’impression que j’ai à la lecture de l’article.
Corleone57 a dit:
ca ne fera qu’amplifier les achats à l’étranger
Juste par réaction épidermique, ça pourrait faire augmenter le piratage.
Je ne comprends pas qu’un tel système puisse exister. Les lobbys ont vraiment une puissance de frappe et une efficacité dans le graissage de patte impressionnants.
(quote:1875514:skankhunt42 ) Haha ! Amd for the win ! Bon je suis donc encore victime de l’effet dunning kruger ?
D’ailleurs à l’époque de mongtalet j’allais à surcouf. Ta carte mère neuve ne fonctionne pas ? Remplacée gratuitement en moins d’une heure. Alors qu’a montgalet, tu doit attendre minimum un mois voir +.
Perso, j’y avais des contacts, donc ça aidait énormément en cas de galère potentielle, ce qui ne m’est arrivé qu’une fois pour être honnête. Mais c’est vrai que la blague de l’époque dans ce genre de boutiques (j’y ai bossé quelques semaines), c’était “garanti jusqu’à la porte”, et j’ai assisté à des scènes assez incroyables dans certains magasins. Inutile de se pointer en menaçant d’appeler ton avocat ou je ne sais quel institution anti fraude ou de soutien au consommateur. C’est osef tiers direct N’y étant pas retourné depuis quasiment dix ans, je ne sais pas si c’est toujours d’actualité, ou même si le quartier est encore aussi actif.
Quant aux prix de surcouf, ben… ce n’est pas pour rien si les petits magasins du quartier cartonnaient autant, malgré une enseigne aussi connue et gigantesque juste à côté
Pour en revenir à Intel/amd, c’est lié au fait que bien souvent (que ce soit des potes ou des collègues), ils n’ont connu qu’Intel, et donc se méfient par défaut de l’inconnu (ici AMD).
Le
25/05/2021 à
09h
29
(quote:1875347:skankhunt42 ) Sauf que quand il va déballer l’engin il ce rendra vite compte que c’est une bouse infâme et la prochaine fois il tentera surement de monter sa propre machine
D’ailleurs si je dis pas de conneries, le montage ne coute que 70€, ce n’est pas très cher. Quand au choix des composant tu peut te faire aider sur internet. De toute façon choisir les composant ce n’est pas si dur que ça hein…
Je pense que tu sur-estimes grandement l’utilisateur moyen (qu’il soit gamer ou non).
Il faut avoir un “pied dedans” pour savoir choisir ses composants. Et le montage à 70€, ça va être sur une boutique spécifique, tu n’auras pas forcément tous les composants voulus et à un prix intéressant.
Amazon et compagnie ont simplifié le choix des composants, mais à la “grande époque” ou j’allais chercher physiquement mes composants dans le 12ème à Paris, j’y passais à chaque fois mon après-midi, le temps de me farcir les différentes boutiques. Et le montage ensuite.
Désormais, quand je me monte ma propre config, je passe malgré tout x heures à me renseigner sur l’état du marché hardware à un instant T, on est très vite largués quand on ne suit pas régulièrement. Quant au fait se faire aider sur Internet, là aussi, va falloir essayer de distinguer le vrai du faux sur les forums, entre les fans de tels fondeur, de telle marque, en plus de ceux qui assènent des vérités qui n’en sont plus, etc. A titre d’exemple, alors que je bosse dans l’IT, je sais très bien que si je pose la question du choix du CPU, beaucoup me répondront sans hésiter “Intel”
Ne vas pas croire que l’utilisateur lambda va s’y mettre aussi facilement, c’est un investissement de temps considérable si on veut faire les choses correctement.
Le
24/05/2021 à
10h
21
(quote:1875273:skankhunt42 ) Car il est clair que le mec qui monte son pc tout seul en général c’est pour économiser de l’argent.
Alors non, je ne crois pas ça une seconde.
Le mec qui monte son pc tout seul, c’est d’abord parce qu’il veut choisir ses composants lui-même, qu’il a le temps et les compétences pour faire les recherches et le montage. Ou qu’il connaît un autre gars qui fera ces recherches et le montage pour lui.
Celui qui n’y connaît rien ne va pas s’embringuer dans ce genre de démarches, et s’il ne veut pas payer trop cher, il va chez carrefour et il chope “le pc gamer du mois a pas cher” avec des compos dont une partie sera low cost, noname, etc.
Plus globalement, j’imagine que la logique de Shadow, c’était de fonctionner à perte le temps que le service prenne de l’ampleur, devienne connu, et puisse se rentabiliser en augmentant les prix doucement sur une masse considérable de clients une fois que la marque aurait acquis ses lettres de noblesse. Un peu à l’image des fabricants de smartphone comme OnePlus ou Xiaomi (et bien d’autres) qui ont démarré avec une stratégie ultra agressive en terme de tarification, pour ensuite gonfler les prix.
Le
22/05/2021 à
23h
39
seboquoi a dit:
Oui, mais 1080p maximum et machine limitée. J’ai essayé plusieurs fois je suis pas convaincu.
Idem. A chaque fois que j’ai voulu tester leur offre (en premium), c’était pour avoir mieux que ma bécane perso (notamment pour ma “vieille” gtx 1080). Le résultat sur plusieurs jeux n’a clairement pas été à la hauteur, et à chaque fois, ma config fait mieux, partiellement à cause du CPU embarqué sur la solution de Nvidia qui est un point bottleneck.
Le point comparable avec Shadow, même si les infrastructures n’ont rien à voir, c’est peut être la rentabilité. Espérer un service de haute volée pour 15 balles par mois est sans doute irréaliste.
Ça montre à quel point le sujet est toujours hautement touchy, mais (pour ceux qui s’écharpent sans fin), dites vous simplement qu’il est vain d’imaginer de convaincre le “camp d’en face”, quelque soient vos arguments, tant que votre interlocuteur n’est pas dans une posture réceptive.
Vu que l’on est sur un forum “tech”, imaginez un pro-Nintendo vouloir convaincre un pro-Sony.
Sinon, merci pour l’article de récapitulatif, j’avoue avoir été très surpris également de le voir sur ce site, mais j’ai capté en lisant les commentaires.
je suis plutôt d’accord, mes ados je leur montre comment faire un MP3 a partir d’un cd ou d’une vidéo, il ne voient pas l’interet grâce a deezer ou spotify voir youtube, dans mon entourage dans les années 2000 tous le monde copiaient les CD a tour de bras et se les refilaient, sur les marché des stand vendaient des cd copier avec leur couverture imprimé en couleur :), maintenant c’est le téléphone/smartphone qui sert a écouter la musique, et leurs cd copié prennent la poussière
Même pour graver une iso mes parents préfère acheter une revue avec le cd.
perso je dirais que carrément il n’y a plus de contrefaçon, ou c’est vraiment à la marge. les rayons de dvd cd vierge dans les super marché ont été remplacé par une seule référence de cd et dvd.
Et pour ceux qui n’ont pas trop les moyens, il reste 1/les offres gratuites comme spotify avec la pub 2/le téléchargement tipiak
De toute façon, il suffit de voir nos machines depuis quasiment 10 ans : il n’y a même plus de lecteurs/graveurs cd/dvd/br embarqués sur les pc & mac portables. Et sur les tours PC, bien souvent, il n’y a même plus aucun emplacement 5.25 en façade (sur la mienne ,de 2018, la face avant est dédiée à trois gros ventilos + un filtre qui occupe toute la surface).
Pour moi, ça démontre visiblement le fait qu’il n’y ait plus de demande de la part du public.
Le
12/05/2021 à
16h
56
C’est un vieux sujet des années 2000 ça
Cette idée (vraiment pas bête) a été enterrée direct par les ayants-droits de l’époque qui ont immédiatement fait une levée de boucliers pour expliquer à quel point c’était un manque à gagner pour eux. Souvenons-nous avec émotion de l’incroyable présence médiatique de certains portes paroles comme Pascal Nègre, cherchant à défendre son bout de steak, et à faire peur aux vilains méchants pirates qui trouvaient un moyen de ne plus acheter des média physiques hors de prix.
Résultat, 10-15 ans plus tard, nous sommes passés à une forme de licence globale, sous la bannière des Spotify, Netflix, MS Gamepass, et les ayants droits ont plié, vu l’impossibilité de freiner cette marche forcée de l’accès dématérialisé.
Je ne connais pas l’évolution du piratage depuis sur les deux dernières décennies en France, mais j’ai tendance à penser que ça a sérieusement du baisser, vu la simplicité et l’efficacité de ces offres (certes, pas gratuites) et le changement des modes de consommation.
Le
12/05/2021 à
14h
27
L4igleNo1r a dit:
Sauf que a cette époque, tu avais déjà des protections anti-copie. Hors tu n’as pas le droit de les casser. Une copie de DVD ou tu as cassé le verrou n’est pas légal donc ne rentre pas dans le champs de cette taxe.
Je ne me souviens pas de protections anti-copie, mais je te crois sur parole.
Du coup, on est bien d’accord qu’il y a un énorme problème avec une taxe qui te fait payer un droit, lui même au final limité parce que les ayants-droits font tout pour te priver de ce droit.
Ça n’a aucun fichu sens. Sauf si on part du principe que le droit à la copie privée est juste une autre expression pour “taxation compensatoire liée au piratage”.
Le
11/05/2021 à
15h
03
Je pensais à la copie vinyle -> vinyle
Mais sinon oui, tout le flux audio que tu pouvais faire passer par l’ampli pouvait être enregistré sur un support comme une cassette audio.
Le
11/05/2021 à
15h
00
Dites, rien à voir avec le sujet, mais je suis le seul à avoir des bugs sur le forum ?
Là je voulais éditer mon dernier post… et ma modification a sauté pendant que je la faisais. Vu que ce n’est pas la première fois, je commence à me dire que ce n’est forcément une fausse manipe de ma part…
Le
11/05/2021 à
14h
53
(quote:1872866:Idiogène) La redevance date de 1985.
Ca n’enlève rien (au contraire), c’est juste que ce n’est pas mon époque.
Mais le phénomène de copie privée existait déjà à cette période, et pas qu’un peu : copies de VHS, cassettes audio, jeux vidéo et softs (disquettes). Le seul truc qui a du être difficile à pirater, j’imagine que c’était les vinyles et les laserdiscs.
Par contre, à notre époque ou ces services sont grandement dématérialisés, cette taxe à d’autant moins de pertinence.
Barzelito a dit:
Sérieusement l’un de vous a déjà vu des copies licites ? Ces 10 dernières années j’entends
Non.
Le
09/05/2021 à
08h
01
Cette taxe n’est pas là pour compenser le piratage mais la copie privée légale qui ferait baisser les ventes car l’acheteur n’achète qu’une seule fois l’oeuvre (notons l’usage du conditionnel car il n’y a pas de preuve que la copie privée fait effectivement baisser les ventes, et que si elle le fait, le montant soit comparable à ce qui est récolté)
Je me pose la question de savoir si ce n’était pas un jeu sur la sémantique pour ne pas employer le mot “piratage”.
C’est moins vrai aujourd’hui, mais à l’époque de l’apparition de cette taxe, Internet n’était pas encore si démocratisé, globalement assez cher, sans même parler de la bande passante, ridicule en comparaison.
Ce que je veux dire par là, c’est que cette taxe remonte à une période ou le piratage, c’était moins télécharger sur le web que de se débrouiller pour louer des films en DVD (au magasin du coin) pour les ripper/compresser ensuite, et en faire profiter son entourage via des divx. Idem pour les MP3 basés sur les CD audio d’un pote, d’un voisin, etc.
Et souvenons-nous également du business qu’il y avait dans les cours de collège à base de jeux console type playstation 1, ou ceux qui avaient la chance d’avoir un graveur avaient un parc de client local conséquent. Idem pour les PC, dans une moindre mesure.
A cette période là, oui, ce principe de taxe aurait pu avoir clairement un sens (si on lui accolait celle du piratage), aujourd’hui elle est caduque (depuis longtemps).
Le
08/05/2021 à
10h
41
doublon
Le
08/05/2021 à
10h
36
Ce que je trouve curieux, c’est que le problème est prix par le mauvais bout de la lorgnette, et surtout que personne ne s’en émeuve.
Le problème de base, à mon sens, qui doit être combattu par les ayants-droits, c’est ce qui est considéré comme du piratage d’œuvres copyrightées (qui génère donc cette taxe débile qui revient au final à une espèce de TVA dans sa mise en application universelle).
C’est un peu comme coller une amende universelle pour excès de vitesse à tous ceux qui conduisent, parce que potentiellement, ils pourraient bien dépasser la vitesse autorisée.
Donc plutôt que de taxer les usagers, qu’ils piratent ou non, il faudrait peut être mettre en place des moyens pour empêcher ledit piratage (sans même parler d’Hadopi, qui est donc manifestement considéré comme inexistant, mais que l’on paye également nos impôts ?).
Ou alors cette taxe serait-elle tout simplement bien plus bénéfique pour les ayants-droits que de prendre le problème à la racine ? Et que l’on ne vienne pas me dire qu’il est impossible techniquement de mettre des barrières efficaces.
Au vu de la somme engrangée indiquée dans l’article, j’ai tendance à penser que “la question est vite répondue”.
Dans ton cas en effet ; de mon côté je vois essentiellement du MySQL/MariaDB et du PostgreSQL. De plus en plus de boîtes réalisent qu’on n’a absolument pas besoin du “gros” (et onéreux) Oracle dans une grande quantité de cas.
Non, tant que tu n’a pas des bases critiques dont les perfs ont un impact majeur sur les traitements métier. Par contre, dès que c’est le cas, oracle te permet de choper à peu près toutes les infos imaginables sur le traitement d’une requête, de son interprétation par le moteur sgbd, pour te permettre de pointer la problématique afin de résoudre le problème de façon efficace. Après, il faut les compétences nécessaires, et pouvoir se payer un dba, voire un dba spécialisé en perfs.
J’aurais bien voulu citer le support oracle dans les qualités du produit, mais ça, c’est plus compliqué
Parmi ce qui m’avait frappé, c’est que ça prenait littéralement des heures d’installer un Oracle, là où un PostgreSQL prenait 10-15 minutes configuration comprise et sans se presser, et disposait déjà de pas mal de fonctions (procédures stockées, triggers, etc.) grâce à quoi une migration depuis Oracle n’était pas forcément si compliquée.
Ce qui est long dans l’installation d’un sgbd oracle, c’est la partie “moteur”, et notamment le respect des pré-requis OS (entre que les packages de preinstall oracle aident pas mal). Une fois que ton environnement est prêt et normalisé, tu peux déployer des bases via des scripts dans un temps assez court. Même via l’interface graphique de création, ça doit se faire à peu près dans cet ordre de temps.
Le
11/05/2021 à
12h
43
OlivierJ a dit:
(je bosse dans le même domaine) De quelles solutions métiers tu parles ? La plupart de celles que je vois tourner sont Open Source.
Pour mon client actuel, un peu en vrac : entre les solutions développées en interne (dont celles historiques figées dans le marbre) et celles qui ne seront jamais portées vers une nouvelle architecture, ça fait du monde. Sans même parler de la partie infra comme des moteurs SGBD comme Oracle ou sql server, ou même weblogic, il est clair que le switch n’est pas pour demain.
Mais je te rejoins sur un point, si prochainement l’archi ARM devient la nouvelle référence, les acteurs majeurs s’adapteront.
Si AMD était “à l’ouest”, c’est bien que ce n’est pas facile de faire des progrès (ou ce n’est plus facile depuis quelques années, ce qu’il est facile de constater). Et il y a toujours eu de la concurrence (sinon AMD n’existerait plus).
Facile non, mais AMD a fait énormément d’erreurs à une période (l’archi Bulldozer de mémoire), et ils en ont payé le prix. Pour être franc, s’il n’y avait pas eu les xbox et playstation pour se refaire une santé, je ne suis pas certain qu’AMD tel qu’on le connaît aurait survécu. Et oui, AMD étant présent à l’époque sur le marché, c’est une forme de concurrence, mais ça reviendrait à dire que MacOS est un concurrent pour Windows. La situation a évolué (heureusement), mais pendant longtemps, les CPU AMD n’étaient vraiment pas recommandables, quel que soit le marché.
Le
10/05/2021 à
20h
44
OlivierJ a dit:
au mieux c’est une simple recompilation, au pire il y a un peu d’adaptation mais c’est pas réellement une énorme tâche. La plupart des applications serveurs tournent sous Linux
Je bosse dans de la prod/projet IT, et clairement, je doute que mon client actuel (assez conséquent et friqué) passe à court/moyen terme sur du ARM. Pour ne prendre que cet exemple, c’est loin d’être le seul. Parce que les solutions métiers ne sont pas actuellement portées vers du ARM (et pour mon taf, je serais surpris que ça arrive demain matin).
J’aimerais avoir des éléments un peu plus concrets comme quoi Intel se serait endormi.
Comme je le disais, il y a un dossier assez conséquent et documenté chez CPC hardware, je te laisse t’y intéresser si tu t’interroges sur la question.
Personne ne t’obligeait à acheter de l’Intel. Et si c’était si facile de faire mieux que 10 %, pourquoi personne ne l’a fait ?
Je m’étonne de ta question. Parce qu’AMD était à l’ouest (c’est un euphémisme), et qu’il n’y avait aucune concurrence.
C’est ce que l’on appelle un monopole. Ou plus justement, un oligopole.
Ceci dit, je peux comprendre ton scepticisme sur mon ressenti, mais il y a d’une part un réalité technologique (le arm c’est bien mais pas quand on veut de la perf pure “métier”), et en plus un effet d’inertie qui fait que les SI sont frileuses à l’idée d’investir lourdement dans des technos qui ne sont pas validées. Dis toi qu’actuellement, malgré le fait que l’on soit à plusieurs générations d’AMD qui ont fait leur preuve, Intel continue à être privilégié sur le renouvellement d’infra. Alors un changement aussi radical que ARM… Ca arrivera, si l’archi ARM fait ses preuves, mais ce n’est pas sur les 2⁄3 ans à venir.
Le
09/05/2021 à
15h
37
OlivierJ a dit:
Pour tous ceux qui utilisent Linux (à titre pro ou perso), le portage n’est pas un souci et si ARM se met à occuper la niche de la performance (déjà qu’ils sont les plus forts sur la performance/watt), ça va être vite adopté.
Pour être franc, j’avais exclu Linux de l’équation, pour la simple raison que dans le monde pro, je doute que l’on passe avant (à minima) 5 à 10 ans sur de l’archi ARM, vu que l’on parle d’une utilisation (il me semble) globalement serveur, qui font eux même tourner des applicatifs servers en x86. Et je n’ai pas l’impression que Linux arrive à s’imposer en quoique ce soit sur la partie desktop, dans le pro comme chez le particulier. Mais je me goure peut être ? Même si c’est le cas, il faudra tout de même que les applis utilisées en desktop soit portées sur ARM. Dans le cas d’apple et de son écosystème plus restreint et maîtrisé, il subsiste malgré rosetta 2 encore pas mal d’incompatibilités partielles et totales.
Ça me fait toujours sourire ce genre de propos, comme si continuer à faire progresser la puissance des processeurs était trivial et qu’Intel n’avait pas essayé…
Ce n’est évidemment pas trivial, mais le fait est qu’Intel s’est endormi sur ses lauriers pendant sa trop longue phase de monopole, et a enchaîné les décisions foireuses, et notamment les projets tués dans l’œuf parce que le développement n’allait pas assez vite selon le CEO de l’époque.
Et même si la situation ne peut pas être si simplement résumée, c’est majoritairement la faute d’Intel si AMD à pu ressurgir de la sorte, et également une erreur considérable d’Intel de ne pas avoir planché sur le renouveau de l’architecture actuelle dont la base remonte tout de même au centrino de 2003 (lui même basé sur le P3). Sans même parler de l’incroyable hold up d’une décennie ou on nous a vendu des CPU avec 10% de perf de plus annuellement, quand on avait du bol.
Un gros dossier de CPC hardware d’il y a 2⁄3 ans avait listé toutes les erreurs du CEO, la fuite des cerveaux , etc. Ils avaient prédit qu’Intel payerait le prix de sa gestion calamiteuse, et partirait dans le rouge, à voir s’ils ont vu juste ou non.
Quelque part, je me réjouis à titre personnel de l’enlisement d’Intel, car AMD n’aurait sans doute pas pu revenir dans la course, et le monopole n’est jamais bon en quoi que ce soit.
Le
08/05/2021 à
20h
07
La supériorité du ARM M1 sur le x86 concernant les machines mobiles ou avec des contraintes thermiques/consommation (comme le mac mini) me semble assez évidente.
La question à mon sens est de savoir si Apple va réitérer son coup de force avec les machines qui n’ont pas ces contraintes, et qui vont affronter de manière directe les gammes x86 desktop axes perf. Si c’est le cas, Apple va devenir un nouveau fondeur majeur.
Mais si on exclut Apple de l’équation, Qualcomm ne semble pas pour le moment en mesure de fournir une solution qui puisse rivaliser de près ou de loin avec le monde x86 actuel.
Quant au monopole d’Intel pendant quasiment une décennie, oui, il semble clair que ça a été particulièrement néfaste.
Le
08/05/2021 à
11h
05
vVDB a dit:
A 4K on est à la limite physiologique humaine, il n’y a que 4 millions de capteurs couleur dans un œil. Donc quand on utilise un écran on doit être à 2K car on n’est pas immergé dans l’écran !
C’est évidemment bien plus complexe que ça.
La question finale étant quelle utilité on trouve à une finesse d’affichage permettant de ne plus percevoir les pixels (associé au la taille de la dalle et à la distance de l’écran).
Perso, j’ai un 32” en QHD. Un des intérêts d’une telle taille est de ne pouvoir me passer du port de mes lunettes (myopie moyenne+astigmatisme léger) quand je bosse sur mon écran (8h par jour pour le taf + le temps perso). Je suis à environ 70cm de mon écran. Malgré ça, je n’aurais rien contre une résolution de 6k voire 8K pour avoir la même finesse d’affichage que je retrouve sur mon macbook (écran retina) ou ma surface pro (équivalence retina).
Le
07/05/2021 à
17h
18
Steez a dit:
J’espère que Intel rattrapera le coup avec sa génération Alder Lake, ça fera du bien à tout le monde la concurrence dans son milieu. Surtout avec ARM qui pointe son nez.
A court/moyen terme, je ne pense pas que l’architecture ARM présente un grand danger. Déjà parce qu’en dehors du M1 d’Apple, les performances sont trop faibles pour prétendre à se comparer frontalement aux solutions x86. Ensuite parce que le parc applicatif n’est pas prêt (au sens porté) pour du ARM.
Le réel combat actuel est (de mon point de vue) entre Intel et AMD.
En tant que responsable SSI d’un boite, si tu as une grande confiance dans le fait que tes utilisateurs n’utilisent leur mot de passe pro que pour les applis pros
Un RSSI qui fait “confiance” aux utilisateurs du SI, je pense que c’est foncièrement impossible.
Par contre, j’avoue ne pas comprendre pourquoi une norme n’est pas imposée aux utilisateurs concernant les mdp. A titre d’exemple, imposer une solution type keepass, et également imposer un profil de génération de mdp complexe, et un renouvellement généré par le même outil (donc plus d’itération sur 2 ou 3 même mdp en boucle pour tromper le système).
Dans la pratique, ça permettrait un niveau de sécurité plus haut, sans complexifier la vie à l’utilisateur qui n’aurait plus qu’un mot de passe à retenir pour accéder à son keepass. Et à l’utilisation, c’est du copier/coller, donc rien d’inabordable même pour l’utilisateur lambda.
Alors oui, ça demanderait une sensibilisation, de la pédagogie, et un minimum d’accompagnement, mais cela en vaut sans doute le coup/coût.
Le
07/05/2021 à
15h
21
Ou tout simplement les utilisateurs vont mettre en place ce que l’on appelle du shadowIT. Pour la petite histoire, il y a quelques années j’ai trouvé une box étrangère dans une grosse boite tout simplement pour passer outre les règles trop contraignantes du parefeu maison.
Je ne connaissais pas. Le cas dont tu parles, je suppose que ça peut carrément mener à la perte de l’emploi de celui/ceux qui ont mis ça en place, vu que tu créé potentiellement une faille de sécurité au sein du SI.
Et sur le wiki : “Une autre étude3 confirme que 35 % des salariés estiment devoir contourner des procédures officielles ou des mesures de sécurité afin de pouvoir travailler efficacement.”
Le
07/05/2021 à
14h
15
doublon
Le
07/05/2021 à
14h
09
Chez nous c’est 14 caractères min avec caractères spéciaux, maj, min et chiffre ^^ Bon, on le change tous les 180 jours c’est déjà ça Et pour les admin, c’est 21 caractères mini
Et historique à 7 mdp.
A peu près la même politique de sécurité pour mon client, à part qu’il a la bonne idée de nous imposer plusieurs comptes pour gérer son infra, suivant les périmètres, avec des timeouts ssh, des timeout sur les sessions RDP, timeout sur le vpn qui est la porte d’entrée, sans parler de toutes les interruptions qui sont accidentelles (et sur lesquelles aucune recherche réelle n’est faite).
Un joli foutoir, qui génère un agacement conséquent y compris de la part du SI qui est de fait complètement gavé par cet environnement hostile. L’analogie utilisée à la fin de l’article est à cette image : protéger la baraque sans empêcher aux locataires “legit” d’y entrer.
Et cette sécurité proche du débilitant à exactement l’impact cité : certains vont utiliser un keepass parce que ça fait partie de leurs habitudes, les autres vont mettre ça sur des papiers, des carnets de note, etc…
Il y a un vrai problème pour certains SSI de condescendre à générer l’effort de trouver un équilibre, et se placer du point de vue de l’utilisateur. Au lieu du leur qui consiste bêtement à foutre des verrous absolument partout, sans cohérence, et sans réfléchir outre mesure.
Le jeu ne peut pas se lancer sans ray tracing activé (une première), et refuse de se lancer sur ma 1080
Du coup, il faudra que j’attende 2023 le temps de choper une rtx 5080
Le
07/05/2021 à
12h
09
Je n’ai pas vu la possibilité d’installer spécifiquement la version enhanced (j’ai déjà la version classique installée). Pas grave, j’ai récupéré les sources d’installation, c’est de toute façon un des avantages de GOG (ne pas être dépendant du store).
Le
07/05/2021 à
10h
36
Au delà des nouvelles technos type RT et DLSS dont je ne peux pas profiter via mon antique gtx 1080, il y a également d’autres améliorations dont celle que j’attendais vraiment, à savoir des textures retapées, car celles d’origine oscillaient entre le bon et le parfois incroyablement médiocre (bien loin des standards des dernières années).
Et en effet, il a été mis a dispo sur GOG, ainsi que ses DLC en version enhanced, le tout gratuitement pour celui qui avait les versions antérieures. Par contre, sur cette plate forme, c’est à télécharger en 23 fichiers distincts. On se croirait revenu à la glorieuse époque du warez des années 2000
Cette pompe a fric absolument monumentale qu’est WoW, est encore plus incroyable avec ce coup de génie de sortir les jeux d’origine, 15 ans après, et d’avoir ainsi fait revenir une “vieille” communauté qui se sent bien mieux dans ses charentaises déjà bien fatiguées.
Pour avoir été moi-même un pigeon, et avoir recommencé “Classic” au moment de sa sortie, je n’ai pas réussi à dépasser le level 15, abruti par l’ennui insondable que me procure ce levelling basé sur un grind devenu repoussant pour moi. Malgré tout, ce Burning Crusade génère quand même une envie dans mon petit cœur flétri. Heureusement que les 40 balles requis sont là pour me raisonner
Bon finalement il ne manque plus que Synology a se bouger le popotin pour enfin mettre un processeur digne de ce nom ainsi que des prises Lan multigig en 2,5g ou 5g voir soyons fou du multigig jusque 10g pour assurer l’avenir.
C’est surtout que le particulier se contente globalement assez facilement d’un port en gigabit, voire d’une agrégation de lien en 2x1Gb (et pour les gammes un peu plus hautes, on peut monter à du 4x1Gb).
Au vu des perfs atteignables (en parallèle), et des prix de certains switchs supportant l’agrégation de liens, ça couvre déjà énormément d’usages.
Par contre, là ou Synology devrait faire le taf en profondeur c’est d’uniformiser ses applis plutôt que de les multiplier à l’infini. Et peut être aussi de nous sortir son interface DSM7 qui n’en finit plus d’être retardée.
(quote:1871856:brice.wernet) Par contre, un vieux core solo, un i7 4702, un i5 9500T: que du bonheur.
C’est peu prédictible en fait, et c’est dommage.
De ma petite expérience, mon ressenti est que côté support matériel, Linux est souvent à la bourre, et les machines qui ont tourné avec la plus grande stabilité étaient… des vieux bousins d’un paquet d’années.
Evidement, il ne faut probablement pas tenter le diable avec des machins trop exotiques, mais c’est là ou Linux prend un avantage conséquent sur Windows, en donnant une seconde (voire troisième) vie à des machines qui se traîneraient autrement sur un OS “contemporain”. Typiquement, LXLE qui tourne comme une balle sur un antique core2duo.
Le
05/05/2021 à
17h
09
Okki a dit:
Je conseillerais surtout de bien choisir son matos. D’éviter nVidia et de préférer une solution Intel ou AMD avec des pilotes libres permettrai d’éviter bien des problèmes. Peu importe le type de matos, il y aura toujours des constructeurs à éviter ou des solutions à privilégier.
En effet, je connais le problème, mais J’avoue que je n’avais pas choisi le hardware en fonction de Linux.
Par contre, c’était une plate forme très commune en 2018 (un portable HP a base d’Intel i5 de gen 8 + hd 620), rien de très particulier. Sur les quatre distrib testées (fedora/ubuntu/mint/lxle), j’ai eu différentes galères. Rien de complètement bloquant, mais assez pénible pour m’en dissuader.
Au delà du problème d’accélération graphique assez pénible - et partiellement résolu via pas mal de recherches -, quelque soit la distro, j’ai eu un problème de côté audio. Pas de saturation ou autre blague du genre, mais juste le fait que l’appli HP/B&O qui ajoute une couche de traitement audio sous windows n’existe pas sur Linux, donc on a le son “non traité”, et c’est une horreur. Le bidoullage via l’equalizer n’aura pas fait grand chose de mieux.
Et de mémoire, l’autonomie était assez mauvaise également.
Au final, ça revient à ce que je reproche à Linux depuis une vingtaine d’années : ça marche, mais toutes ces petites pétouilles plus ou moins handicapantes font qu’à titre perso, je finis par retourner sur windows, par dépit. Avec l’espoir que 2 ou 3 ans plus tard, ça marchera “mieux”.
C’est au final la force absolument énorme d’un windows, quelque soit son avis sur cet OS : ça marche sur à peu près n’importe quel hardware même exotique, sorti entre 1985 et 2021.
Dans l’absolu, tu as raison, il faut avant d’envisager l’achat d’un hardware vérifier que tout sera parfaitement compatible. D’ailleurs, à une époque (révolue ?), Dell avait une page de support Linux qui permettait de récupérer tous les drivers nécessaires.
141 commentaires
Panne des numéros d’urgence (15, 17, 18, 112) : que s’est-il passé ?
03/06/2021
Le 04/06/2021 à 11h 09
Passionnant.
Bon week end.
Le 04/06/2021 à 10h 06
Dans le genre interprétation et déformation de ce que j’ai pu écrire, tu tiens le haut du pavé.
Respire, relis plus posément (tous les mots), et ça va nettement mieux se passer
Le 03/06/2021 à 15h 11
Oui, à part qu’à force de créer des process imbitables, des formulaires bleus x42.27 à faire signer par des sous chefs pas dispos, il finit toujours par y avoir un bypass oral à un moment “pour faire avancer, sinon on va pas s’en sortir”.
Ça fait X années que je bosse dans des grosses boîtes, et à un moment donné, toutes ces process qui gonflent tout le monde finissent par être joyeusement court-circuités, à l’occasion.
Évidemment, dans ce cas de figure, il y a forcément eu une boulette à un certain niveau, et il est probable que des têtes tombent.
Après, l’emballement de “monsieur le ministre” qui va souffler dans les bronches de S Richard, c’est un osef total.
Et pour l’anecdote, j’ai connu un admin sys de FT, qui m’expliquait (il y a une dizaine d’années) qu’ils avaient des vieux tromblons en salle serveur que personne n’administrait ou ne savait ce qui pouvait bien tourner dessus, mais que personne ne débranchait “au cas où”
À la découverte de macOS Big Sur, avec un MacBook Pro M1
01/06/2021
Le 02/06/2021 à 14h 26
Tout pareil. On s’y fait, mais c’est lourd, et idem avec les touches qui ne sont pas au même endroit (le @ par exemple).
Le 02/06/2021 à 08h 25
Ce n’est pas le cas ici : par défaut, on l’affiche via un swipe vers la gauche, à partir du coin supérieur droit du trackpad.
J’ai bien du l’afficher une ou deux fois par erreur, mais ça se passe bien globalement.
Le 01/06/2021 à 22h 32
A l’inverse, peux-tu développer pourquoi tu ne peux pas comprendre cette allégation ?
Le 01/06/2021 à 18h 46
/3615 mylife ON
J’ai du bol.
J’avais commencé mon aventure mac à la période “dorée” (10.3⁄10.4⁄10.5) en découvrant un OS qui avait une énorme longueur d’avance sur Windows XP/vista à l’époque.
Et j’avais commencé à lâcher aux alentours de 2010⁄11, ou W7 avait des arguments intéressants, et ou OsX ne progressait pratiquement plus, loin de la débauche de nouvelles fonctionnalités “cool” d’une période.
Et il y a deux mois, assez hypé par le M1, et à la recherche d’un OS peut être moins gourmand de nos informations personnelles (coucou W10), et linux n’étant vraiment pas assez optimal pour un environnement desktop, me revoici donc avez Big Sur via un MBA de base.
Et j’ai beau être agacé par la fermeture de l’écosystème d’apple, je dois bien admettre que l’OS est vraiment agréable, bien optimisé, et toujours aussi séduisant par son côté polish que Windows est étonnamment loin d’avoir.
Cet article, ainsi que les précédents, me confirment que j’ai donc “zappé” toute la longue période ou OsX s’est peaufiné, a gagné une certaine maturité, mais ou l’actualité OsX était… meh.
/3515 mylife off
AMD Fidelity FX Super Resolution pour le 22 juin : les GeForce compatibles, peu de jeux concernés
01/06/2021
Le 01/06/2021 à 10h 42
Merci pour vos réponses.
Si c’est efficace, ou même que cela apporte un boost de perfs non négligeable (sans être à la hauteur du DLSS 2), ce sera toujours bon à prendre…
Le 01/06/2021 à 09h 55
Ce n’est pas la cible de l’article, mais j’aurais été curieux de savoir si cette techno sera utilisable sur les PS5/XsX…
NVIDIA officialise ses GeForce RTX 3080 Ti et 3070 Ti, Doom Eternal bientôt en ray tracing
01/06/2021
Le 01/06/2021 à 09h 51
Idem, et s’il y a possibilité de préco, j’essayerais de ne pas louper le coche comme je l’ai fait pour les 3070⁄3080.
Le prix de 620€ pour la 3070 TI semble presque raisonnable au niveau des perfs auxquelles on devrait pouvoir s’attendre. Il faut maintenant espérer que la dispo soit bien présente.
Il y a peu, le bridage avait été contourné non ? Ils ont mis en place une solution hardware ?
Retour sur 20 ans d’évolution du DSM (Disk Station Manager) et de Synology
27/05/2021
Le 28/05/2021 à 11h 42
Merci pour l’article. J’aurais été curieux de voir des captures d’écran des premiers DSM (je ne connais que depuis la v5) et les évolutions semblent avoir été importantes côté interface également.
Sinon, même ressenti que d’autres ici : j’ai 4 synology au total (2 chez moi, et 2 sur d’autres “sites” géographiques dans ma famille, avec des synchros des données importantes entre 3 nas.
En dehors d’un DS114J qui s’est toujours montré complètement anémique, mais qui fait à peu près le taf pour des tâches basiques, les autres tournent plutôt bien (DS216play et DS418), avec des usages un peu plus avancés.
Globalement, même si c’est une marque assez chère qui fait payer au prix fort sa renommée et sa remarquable interface, le tout est d’une fiabilité remarquable.
Prochain pallier me concernant, probablement un DS918+ (ou au dessus) pour avoir des perfs plus importantes et une meilleure capacité à encaisser les I/O sur des SSD, etc.
Qualcomm dévoile son Snapdragon 7c Gen 2 et un kit de développement Windows 10
26/05/2021
Le 27/05/2021 à 09h 30
Le GPU du M1 ne vaut clairement pas un bon GPU dédié, mais ça semble être ce que l’on fait de plus performant pour de l’intégré.
Après, bien sûr, ça ne fait pas du M1 une machine gamer, mais je suis assez surpris de la manière dont ça tourne (il y a un reddit qui ne cesse de m’étonner).
Mon questionnement était en fait plus lié au fait des perfs obtenues à travers cette couche de virtu sur un os virtuel qui lui même fait tourner des applis exploitant autre architecture (du coup… de l’émulation hardware ?).
Ce côté “ça passe pas si mal” avec toutes ces couches m’étonne grandement.
Le 26/05/2021 à 22h 17
Je n’ai pas trop suivi l’affaire, mais il semble d’ailleurs qu’il soit possible de faire tourner des jeux win/x86 de manière très propre en passant par parallels sur le M1.
Et comme il s’agit de jeux relativement costauds (tomb raider, gta 5, etc), c’est un mystère pour moi : du arm qui virtualise un OS arm qui lui même fait tourner des jeux x86, et ce avec un résultat très potable, même pour du natif.
Le 26/05/2021 à 22h 08
Je suis perplexe. Pendant presque une décennie, les SoC ARM ont eu une courbe de puissance du même genre que celle du x86 dans les années +/- 2000, à savoir une évolution extrêmement rapide.
J’ai la nette impression que chez exynos et qualcomm (pour ne parler que de ces deux acteurs majeurs), on est arrivé à une espèce de stagnation, ou en tout cas un tassement énorme de cette courbe.
D’un côté, j’aurais pu le comprendre s’il n’y avait pas eu le “précédent” du M1. Comment plus de 6 mois après la sortie des premières machines intégrant ce nouveau SOC, qualcomm peut-il se pointer avec une itération 6,2% plus “performante” ?
Il y a quelque chose qui m’échappe. Alors ok, on parle de machines low cost, ce que même le premier mba n’est pas. Mais quand même.
Copie privée : les ayants droit veulent jusqu’à 9,80 euros sur chaque téléphone reconditionné
21/05/2021
Le 25/05/2021 à 17h 38
Du coup, j’ai du mal à comprendre. Ce sont des génies absolus, qui ont 26 coups d’avance en toute situation, mais il a bien fallu les renflouer lorsque la bise est venue, avec la grande menace de l’effondrement du système bancaire à la clé (non, je n’y crois pas non plus, mais c’était bien ça qui était en jeu) ?
Et je ne pensais pas spécifiquement à la société générale, même si c’est notre fleuron national à nous
Je me goure peut être, mais j’ai surtout l’impression que les grosses banques sont à peu près inattaquables, et que malgré la crise des subprimes (entre autres), il n’y a toujours aucune réelle régulation dans le fonctionnement interne.
Et les états, si leur fonction est de réguler (et de vouloir le faire au delà de l’image médiatique), n’ont pas d’impact réel. Un exemple à une échelle assez basse avec un cash investigation récent “nos très chères banques” montrait assez bien le phénomène, avec un ministre qui finissait par admettre à mot couvert qu’ils n’imposaient rien, et que de toute façon les banques faisaient poliment exactement ce qu’elles voulaient, quitte à ne pas respecter les maigres engagements pris après des mois d’âpres négociations.
Le 24/05/2021 à 10h 25
Les mêmes règles strictes et contrôles par une autorité indépendante qui ont mené à la crise des subprimes ?
Allons donc…
Le 23/05/2021 à 09h 38
C’est surtout qu’on a pas le choix, et que le “système” en place est particulièrement bien ancré. Ce qui me pose problème, ce n’est pas tant qu’il y ait des arnaques, c’est le fait qu’il ait été permis qu’elles soient mises en place et perdurent.
Pour avoir un système aussi abusif, il me semble évident qu’il y a eu des bakchichs, ou à minima de sérieux conflits d’intérêts (pour ne pas dire délits d’initiés). Mais étrangement, il n’y a aucune remise en question, et aucune enquête sur le sujet.
Le 21/05/2021 à 15h 00
Tu as magnifiquement résumé l’impression que j’ai à la lecture de l’article.
Juste par réaction épidermique, ça pourrait faire augmenter le piratage.
Je ne comprends pas qu’un tel système puisse exister. Les lobbys ont vraiment une puissance de frappe et une efficacité dans le graissage de patte impressionnants.
Shadow évoque ses évolutions et les nouveaux tarifs : de 30 à 55 euros
20/05/2021
Le 25/05/2021 à 17h 29
Perso, j’y avais des contacts, donc ça aidait énormément en cas de galère potentielle, ce qui ne m’est arrivé qu’une fois pour être honnête.
Mais c’est vrai que la blague de l’époque dans ce genre de boutiques (j’y ai bossé quelques semaines), c’était “garanti jusqu’à la porte”, et j’ai assisté à des scènes assez incroyables dans certains magasins.
Inutile de se pointer en menaçant d’appeler ton avocat ou je ne sais quel institution anti fraude ou de soutien au consommateur. C’est osef tiers direct
N’y étant pas retourné depuis quasiment dix ans, je ne sais pas si c’est toujours d’actualité, ou même si le quartier est encore aussi actif.
Quant aux prix de surcouf, ben… ce n’est pas pour rien si les petits magasins du quartier cartonnaient autant, malgré une enseigne aussi connue et gigantesque juste à côté
Pour en revenir à Intel/amd, c’est lié au fait que bien souvent (que ce soit des potes ou des collègues), ils n’ont connu qu’Intel, et donc se méfient par défaut de l’inconnu (ici AMD).
Le 25/05/2021 à 09h 29
Je pense que tu sur-estimes grandement l’utilisateur moyen (qu’il soit gamer ou non).
Il faut avoir un “pied dedans” pour savoir choisir ses composants. Et le montage à 70€, ça va être sur une boutique spécifique, tu n’auras pas forcément tous les composants voulus et à un prix intéressant.
Amazon et compagnie ont simplifié le choix des composants, mais à la “grande époque” ou j’allais chercher physiquement mes composants dans le 12ème à Paris, j’y passais à chaque fois mon après-midi, le temps de me farcir les différentes boutiques.
Et le montage ensuite.
Désormais, quand je me monte ma propre config, je passe malgré tout x heures à me renseigner sur l’état du marché hardware à un instant T, on est très vite largués quand on ne suit pas régulièrement.
Quant au fait se faire aider sur Internet, là aussi, va falloir essayer de distinguer le vrai du faux sur les forums, entre les fans de tels fondeur, de telle marque, en plus de ceux qui assènent des vérités qui n’en sont plus, etc.
A titre d’exemple, alors que je bosse dans l’IT, je sais très bien que si je pose la question du choix du CPU, beaucoup me répondront sans hésiter “Intel”
Ne vas pas croire que l’utilisateur lambda va s’y mettre aussi facilement, c’est un investissement de temps considérable si on veut faire les choses correctement.
Le 24/05/2021 à 10h 21
Alors non, je ne crois pas ça une seconde.
Le mec qui monte son pc tout seul, c’est d’abord parce qu’il veut choisir ses composants lui-même, qu’il a le temps et les compétences pour faire les recherches et le montage.
Ou qu’il connaît un autre gars qui fera ces recherches et le montage pour lui.
Celui qui n’y connaît rien ne va pas s’embringuer dans ce genre de démarches, et s’il ne veut pas payer trop cher, il va chez carrefour et il chope “le pc gamer du mois a pas cher” avec des compos dont une partie sera low cost, noname, etc.
Plus globalement, j’imagine que la logique de Shadow, c’était de fonctionner à perte le temps que le service prenne de l’ampleur, devienne connu, et puisse se rentabiliser en augmentant les prix doucement sur une masse considérable de clients une fois que la marque aurait acquis ses lettres de noblesse.
Un peu à l’image des fabricants de smartphone comme OnePlus ou Xiaomi (et bien d’autres) qui ont démarré avec une stratégie ultra agressive en terme de tarification, pour ensuite gonfler les prix.
Le 22/05/2021 à 23h 39
Idem. A chaque fois que j’ai voulu tester leur offre (en premium), c’était pour avoir mieux que ma bécane perso (notamment pour ma “vieille” gtx 1080).
Le résultat sur plusieurs jeux n’a clairement pas été à la hauteur, et à chaque fois, ma config fait mieux, partiellement à cause du CPU embarqué sur la solution de Nvidia qui est un point bottleneck.
Le point comparable avec Shadow, même si les infrastructures n’ont rien à voir, c’est peut être la rentabilité. Espérer un service de haute volée pour 15 balles par mois est sans doute irréaliste.
Covid-19 : ouverture de la vaccination à tous les adultes, quelle est la marche à suivre ?
12/05/2021
Le 13/05/2021 à 23h 37
Nom de Zeus, tout ce sel déversé
Ça montre à quel point le sujet est toujours hautement touchy, mais (pour ceux qui s’écharpent sans fin), dites vous simplement qu’il est vain d’imaginer de convaincre le “camp d’en face”, quelque soient vos arguments, tant que votre interlocuteur n’est pas dans une posture réceptive.
Vu que l’on est sur un forum “tech”, imaginez un pro-Nintendo vouloir convaincre un pro-Sony.
Sinon, merci pour l’article de récapitulatif, j’avoue avoir été très surpris également de le voir sur ce site, mais j’ai capté en lisant les commentaires.
Les questionnaires PC et disques durs nus adoptés en Commission Copie Privée
07/05/2021
Le 13/05/2021 à 09h 58
Et pour ceux qui n’ont pas trop les moyens, il reste 1/les offres gratuites comme spotify avec la pub 2/le téléchargement tipiak
De toute façon, il suffit de voir nos machines depuis quasiment 10 ans : il n’y a même plus de lecteurs/graveurs cd/dvd/br embarqués sur les pc & mac portables.
Et sur les tours PC, bien souvent, il n’y a même plus aucun emplacement 5.25 en façade (sur la mienne ,de 2018, la face avant est dédiée à trois gros ventilos + un filtre qui occupe toute la surface).
Pour moi, ça démontre visiblement le fait qu’il n’y ait plus de demande de la part du public.
Le 12/05/2021 à 16h 56
C’est un vieux sujet des années 2000 ça
Cette idée (vraiment pas bête) a été enterrée direct par les ayants-droits de l’époque qui ont immédiatement fait une levée de boucliers pour expliquer à quel point c’était un manque à gagner pour eux.
Souvenons-nous avec émotion de l’incroyable présence médiatique de certains portes paroles comme Pascal Nègre, cherchant à défendre son bout de steak, et à faire peur aux vilains méchants pirates qui trouvaient un moyen de ne plus acheter des média physiques hors de prix.
Résultat, 10-15 ans plus tard, nous sommes passés à une forme de licence globale, sous la bannière des Spotify, Netflix, MS Gamepass, et les ayants droits ont plié, vu l’impossibilité de freiner cette marche forcée de l’accès dématérialisé.
Je ne connais pas l’évolution du piratage depuis sur les deux dernières décennies en France, mais j’ai tendance à penser que ça a sérieusement du baisser, vu la simplicité et l’efficacité de ces offres (certes, pas gratuites) et le changement des modes de consommation.
Le 12/05/2021 à 14h 27
Je ne me souviens pas de protections anti-copie, mais je te crois sur parole.
Du coup, on est bien d’accord qu’il y a un énorme problème avec une taxe qui te fait payer un droit, lui même au final limité parce que les ayants-droits font tout pour te priver de ce droit.
Ça n’a aucun fichu sens. Sauf si on part du principe que le droit à la copie privée est juste une autre expression pour “taxation compensatoire liée au piratage”.
Le 11/05/2021 à 15h 03
Je pensais à la copie vinyle -> vinyle
Mais sinon oui, tout le flux audio que tu pouvais faire passer par l’ampli pouvait être enregistré sur un support comme une cassette audio.
Le 11/05/2021 à 15h 00
Dites, rien à voir avec le sujet, mais je suis le seul à avoir des bugs sur le forum ?
Là je voulais éditer mon dernier post… et ma modification a sauté pendant que je la faisais. Vu que ce n’est pas la première fois, je commence à me dire que ce n’est forcément une fausse manipe de ma part…
Le 11/05/2021 à 14h 53
Ca n’enlève rien (au contraire), c’est juste que ce n’est pas mon époque.
Mais le phénomène de copie privée existait déjà à cette période, et pas qu’un peu : copies de VHS, cassettes audio, jeux vidéo et softs (disquettes).
Le seul truc qui a du être difficile à pirater, j’imagine que c’était les vinyles et les laserdiscs.
Par contre, à notre époque ou ces services sont grandement dématérialisés, cette taxe à d’autant moins de pertinence.
Non.
Le 09/05/2021 à 08h 01
Je me pose la question de savoir si ce n’était pas un jeu sur la sémantique pour ne pas employer le mot “piratage”.
C’est moins vrai aujourd’hui, mais à l’époque de l’apparition de cette taxe, Internet n’était pas encore si démocratisé, globalement assez cher, sans même parler de la bande passante, ridicule en comparaison.
Ce que je veux dire par là, c’est que cette taxe remonte à une période ou le piratage, c’était moins télécharger sur le web que de se débrouiller pour louer des films en DVD (au magasin du coin) pour les ripper/compresser ensuite, et en faire profiter son entourage via des divx.
Idem pour les MP3 basés sur les CD audio d’un pote, d’un voisin, etc.
Et souvenons-nous également du business qu’il y avait dans les cours de collège à base de jeux console type playstation 1, ou ceux qui avaient la chance d’avoir un graveur avaient un parc de client local conséquent. Idem pour les PC, dans une moindre mesure.
A cette période là, oui, ce principe de taxe aurait pu avoir clairement un sens (si on lui accolait celle du piratage), aujourd’hui elle est caduque (depuis longtemps).
Le 08/05/2021 à 10h 41
doublon
Le 08/05/2021 à 10h 36
Ce que je trouve curieux, c’est que le problème est prix par le mauvais bout de la lorgnette, et surtout que personne ne s’en émeuve.
Le problème de base, à mon sens, qui doit être combattu par les ayants-droits, c’est ce qui est considéré comme du piratage d’œuvres copyrightées (qui génère donc cette taxe débile qui revient au final à une espèce de TVA dans sa mise en application universelle).
C’est un peu comme coller une amende universelle pour excès de vitesse à tous ceux qui conduisent, parce que potentiellement, ils pourraient bien dépasser la vitesse autorisée.
Donc plutôt que de taxer les usagers, qu’ils piratent ou non, il faudrait peut être mettre en place des moyens pour empêcher ledit piratage (sans même parler d’Hadopi, qui est donc manifestement considéré comme inexistant, mais que l’on paye également nos impôts ?).
Ou alors cette taxe serait-elle tout simplement bien plus bénéfique pour les ayants-droits que de prendre le problème à la racine ? Et que l’on ne vienne pas me dire qu’il est impossible techniquement de mettre des barrières efficaces.
Au vu de la somme engrangée indiquée dans l’article, j’ai tendance à penser que “la question est vite répondue”.
Tiger Lake-H et ses 6 à 8 cœurs gravés en 10 nm se dévoilent
06/05/2021
Le 12/05/2021 à 14h 43
Non, tant que tu n’a pas des bases critiques dont les perfs ont un impact majeur sur les traitements métier.
Par contre, dès que c’est le cas, oracle te permet de choper à peu près toutes les infos imaginables sur le traitement d’une requête, de son interprétation par le moteur sgbd, pour te permettre de pointer la problématique afin de résoudre le problème de façon efficace.
Après, il faut les compétences nécessaires, et pouvoir se payer un dba, voire un dba spécialisé en perfs.
J’aurais bien voulu citer le support oracle dans les qualités du produit, mais ça, c’est plus compliqué
Ce qui est long dans l’installation d’un sgbd oracle, c’est la partie “moteur”, et notamment le respect des pré-requis OS (entre que les packages de preinstall oracle aident pas mal).
Une fois que ton environnement est prêt et normalisé, tu peux déployer des bases via des scripts dans un temps assez court. Même via l’interface graphique de création, ça doit se faire à peu près dans cet ordre de temps.
Le 11/05/2021 à 12h 43
Pour mon client actuel, un peu en vrac : entre les solutions développées en interne (dont celles historiques figées dans le marbre) et celles qui ne seront jamais portées vers une nouvelle architecture, ça fait du monde. Sans même parler de la partie infra comme des moteurs SGBD comme Oracle ou sql server, ou même weblogic, il est clair que le switch n’est pas pour demain.
Mais je te rejoins sur un point, si prochainement l’archi ARM devient la nouvelle référence, les acteurs majeurs s’adapteront.
Facile non, mais AMD a fait énormément d’erreurs à une période (l’archi Bulldozer de mémoire), et ils en ont payé le prix. Pour être franc, s’il n’y avait pas eu les xbox et playstation pour se refaire une santé, je ne suis pas certain qu’AMD tel qu’on le connaît aurait survécu.
Et oui, AMD étant présent à l’époque sur le marché, c’est une forme de concurrence, mais ça reviendrait à dire que MacOS est un concurrent pour Windows. La situation a évolué (heureusement), mais pendant longtemps, les CPU AMD n’étaient vraiment pas recommandables, quel que soit le marché.
Le 10/05/2021 à 20h 44
Comme je le disais, il y a un dossier assez conséquent et documenté chez CPC hardware, je te laisse t’y intéresser si tu t’interroges sur la question.
Je m’étonne de ta question. Parce qu’AMD était à l’ouest (c’est un euphémisme), et qu’il n’y avait aucune concurrence.
C’est ce que l’on appelle un monopole. Ou plus justement, un oligopole.
Ceci dit, je peux comprendre ton scepticisme sur mon ressenti, mais il y a d’une part un réalité technologique (le arm c’est bien mais pas quand on veut de la perf pure “métier”), et en plus un effet d’inertie qui fait que les SI sont frileuses à l’idée d’investir lourdement dans des technos qui ne sont pas validées.
Dis toi qu’actuellement, malgré le fait que l’on soit à plusieurs générations d’AMD qui ont fait leur preuve, Intel continue à être privilégié sur le renouvellement d’infra. Alors un changement aussi radical que ARM… Ca arrivera, si l’archi ARM fait ses preuves, mais ce n’est pas sur les 2⁄3 ans à venir.
Le 09/05/2021 à 15h 37
Pour être franc, j’avais exclu Linux de l’équation, pour la simple raison que dans le monde pro, je doute que l’on passe avant (à minima) 5 à 10 ans sur de l’archi ARM, vu que l’on parle d’une utilisation (il me semble) globalement serveur, qui font eux même tourner des applicatifs servers en x86.
Et je n’ai pas l’impression que Linux arrive à s’imposer en quoique ce soit sur la partie desktop, dans le pro comme chez le particulier. Mais je me goure peut être ?
Même si c’est le cas, il faudra tout de même que les applis utilisées en desktop soit portées sur ARM. Dans le cas d’apple et de son écosystème plus restreint et maîtrisé, il subsiste malgré rosetta 2 encore pas mal d’incompatibilités partielles et totales.
Ce n’est évidemment pas trivial, mais le fait est qu’Intel s’est endormi sur ses lauriers pendant sa trop longue phase de monopole, et a enchaîné les décisions foireuses, et notamment les projets tués dans l’œuf parce que le développement n’allait pas assez vite selon le CEO de l’époque.
Et même si la situation ne peut pas être si simplement résumée, c’est majoritairement la faute d’Intel si AMD à pu ressurgir de la sorte, et également une erreur considérable d’Intel de ne pas avoir planché sur le renouveau de l’architecture actuelle dont la base remonte tout de même au centrino de 2003 (lui même basé sur le P3).
Sans même parler de l’incroyable hold up d’une décennie ou on nous a vendu des CPU avec 10% de perf de plus annuellement, quand on avait du bol.
Un gros dossier de CPC hardware d’il y a 2⁄3 ans avait listé toutes les erreurs du CEO, la fuite des cerveaux , etc. Ils avaient prédit qu’Intel payerait le prix de sa gestion calamiteuse, et partirait dans le rouge, à voir s’ils ont vu juste ou non.
Quelque part, je me réjouis à titre personnel de l’enlisement d’Intel, car AMD n’aurait sans doute pas pu revenir dans la course, et le monopole n’est jamais bon en quoi que ce soit.
Le 08/05/2021 à 20h 07
La supériorité du ARM M1 sur le x86 concernant les machines mobiles ou avec des contraintes thermiques/consommation (comme le mac mini) me semble assez évidente.
La question à mon sens est de savoir si Apple va réitérer son coup de force avec les machines qui n’ont pas ces contraintes, et qui vont affronter de manière directe les gammes x86 desktop axes perf. Si c’est le cas, Apple va devenir un nouveau fondeur majeur.
Mais si on exclut Apple de l’équation, Qualcomm ne semble pas pour le moment en mesure de fournir une solution qui puisse rivaliser de près ou de loin avec le monde x86 actuel.
Quant au monopole d’Intel pendant quasiment une décennie, oui, il semble clair que ça a été particulièrement néfaste.
Le 08/05/2021 à 11h 05
C’est évidemment bien plus complexe que ça.
La question finale étant quelle utilité on trouve à une finesse d’affichage permettant de ne plus percevoir les pixels (associé au la taille de la dalle et à la distance de l’écran).
Perso, j’ai un 32” en QHD. Un des intérêts d’une telle taille est de ne pouvoir me passer du port de mes lunettes (myopie moyenne+astigmatisme léger) quand je bosse sur mon écran (8h par jour pour le taf + le temps perso). Je suis à environ 70cm de mon écran.
Malgré ça, je n’aurais rien contre une résolution de 6k voire 8K pour avoir la même finesse d’affichage que je retrouve sur mon macbook (écran retina) ou ma surface pro (équivalence retina).
Le 07/05/2021 à 17h 18
A court/moyen terme, je ne pense pas que l’architecture ARM présente un grand danger. Déjà parce qu’en dehors du M1 d’Apple, les performances sont trop faibles pour prétendre à se comparer frontalement aux solutions x86.
Ensuite parce que le parc applicatif n’est pas prêt (au sens porté) pour du ARM.
Le réel combat actuel est (de mon point de vue) entre Intel et AMD.
La petite histoire du mot de passe
07/05/2021
Le 11/05/2021 à 16h 58
Un RSSI qui fait “confiance” aux utilisateurs du SI, je pense que c’est foncièrement impossible.
Par contre, j’avoue ne pas comprendre pourquoi une norme n’est pas imposée aux utilisateurs concernant les mdp. A titre d’exemple, imposer une solution type keepass, et également imposer un profil de génération de mdp complexe, et un renouvellement généré par le même outil (donc plus d’itération sur 2 ou 3 même mdp en boucle pour tromper le système).
Dans la pratique, ça permettrait un niveau de sécurité plus haut, sans complexifier la vie à l’utilisateur qui n’aurait plus qu’un mot de passe à retenir pour accéder à son keepass.
Et à l’utilisation, c’est du copier/coller, donc rien d’inabordable même pour l’utilisateur lambda.
Alors oui, ça demanderait une sensibilisation, de la pédagogie, et un minimum d’accompagnement, mais cela en vaut sans doute le coup/coût.
Le 07/05/2021 à 15h 21
Je ne connaissais pas. Le cas dont tu parles, je suppose que ça peut carrément mener à la perte de l’emploi de celui/ceux qui ont mis ça en place, vu que tu créé potentiellement une faille de sécurité au sein du SI.
Et sur le wiki :
“Une autre étude3 confirme que 35 % des salariés estiment devoir contourner des procédures officielles ou des mesures de sécurité afin de pouvoir travailler efficacement.”
Le 07/05/2021 à 14h 15
doublon
Le 07/05/2021 à 14h 09
A peu près la même politique de sécurité pour mon client, à part qu’il a la bonne idée de nous imposer plusieurs comptes pour gérer son infra, suivant les périmètres, avec des timeouts ssh, des timeout sur les sessions RDP, timeout sur le vpn qui est la porte d’entrée, sans parler de toutes les interruptions qui sont accidentelles (et sur lesquelles aucune recherche réelle n’est faite).
Un joli foutoir, qui génère un agacement conséquent y compris de la part du SI qui est de fait complètement gavé par cet environnement hostile. L’analogie utilisée à la fin de l’article est à cette image : protéger la baraque sans empêcher aux locataires “legit” d’y entrer.
Et cette sécurité proche du débilitant à exactement l’impact cité : certains vont utiliser un keepass parce que ça fait partie de leurs habitudes, les autres vont mettre ça sur des papiers, des carnets de note, etc…
Il y a un vrai problème pour certains SSI de condescendre à générer l’effort de trouver un équilibre, et se placer du point de vue de l’utilisateur. Au lieu du leur qui consiste bêtement à foutre des verrous absolument partout, sans cohérence, et sans réfléchir outre mesure.
Metro Exodus « Enhanced » est là, avec DLSS 2.0 et DXR 1.1. AMD publie un nouveau pilote
07/05/2021
Le 07/05/2021 à 15h 29
Un peu deg’.
Le jeu ne peut pas se lancer sans ray tracing activé (une première), et refuse de se lancer sur ma 1080
Du coup, il faudra que j’attende 2023 le temps de choper une rtx 5080
Le 07/05/2021 à 12h 09
Je n’ai pas vu la possibilité d’installer spécifiquement la version enhanced (j’ai déjà la version classique installée).
Pas grave, j’ai récupéré les sources d’installation, c’est de toute façon un des avantages de GOG (ne pas être dépendant du store).
Le 07/05/2021 à 10h 36
Au delà des nouvelles technos type RT et DLSS dont je ne peux pas profiter via mon antique gtx 1080, il y a également d’autres améliorations dont celle que j’attendais vraiment, à savoir des textures retapées, car celles d’origine oscillaient entre le bon et le parfois incroyablement médiocre (bien loin des standards des dernières années).
Et en effet, il a été mis a dispo sur GOG, ainsi que ses DLC en version enhanced, le tout gratuitement pour celui qui avait les versions antérieures.
Par contre, sur cette plate forme, c’est à télécharger en 23 fichiers distincts. On se croirait revenu à la glorieuse époque du warez des années 2000
World of Warcraft : Burning Crusade Classic sera lancé le 2 juin
07/05/2021
Le 07/05/2021 à 10h 05
Cette pompe a fric absolument monumentale qu’est WoW, est encore plus incroyable avec ce coup de génie de sortir les jeux d’origine, 15 ans après, et d’avoir ainsi fait revenir une “vieille” communauté qui se sent bien mieux dans ses charentaises déjà bien fatiguées.
Pour avoir été moi-même un pigeon, et avoir recommencé “Classic” au moment de sa sortie, je n’ai pas réussi à dépasser le level 15, abruti par l’ennui insondable que me procure ce levelling basé sur un grind devenu repoussant pour moi.
Malgré tout, ce Burning Crusade génère quand même une envie dans mon petit cœur flétri. Heureusement que les 40 balles requis sont là pour me raisonner
Asustor en 2021 : ADM 4.0, Realtek RTD1296, Atom C3538 et 2,5 Gb/s à tous les étages
06/05/2021
Le 07/05/2021 à 07h 58
C’est surtout que le particulier se contente globalement assez facilement d’un port en gigabit, voire d’une agrégation de lien en 2x1Gb (et pour les gammes un peu plus hautes, on peut monter à du 4x1Gb).
Au vu des perfs atteignables (en parallèle), et des prix de certains switchs supportant l’agrégation de liens, ça couvre déjà énormément d’usages.
Par contre, là ou Synology devrait faire le taf en profondeur c’est d’uniformiser ses applis plutôt que de les multiplier à l’infini. Et peut être aussi de nous sortir son interface DSM7 qui n’en finit plus d’être retardée.
elementary OS 6 dévoile de profonds remaniements dans une première bêta
04/05/2021
Le 05/05/2021 à 21h 56
De ma petite expérience, mon ressenti est que côté support matériel, Linux est souvent à la bourre, et les machines qui ont tourné avec la plus grande stabilité étaient… des vieux bousins d’un paquet d’années.
Evidement, il ne faut probablement pas tenter le diable avec des machins trop exotiques, mais c’est là ou Linux prend un avantage conséquent sur Windows, en donnant une seconde (voire troisième) vie à des machines qui se traîneraient autrement sur un OS “contemporain”. Typiquement, LXLE qui tourne comme une balle sur un antique core2duo.
Le 05/05/2021 à 17h 09
En effet, je connais le problème, mais J’avoue que je n’avais pas choisi le hardware en fonction de Linux.
Par contre, c’était une plate forme très commune en 2018 (un portable HP a base d’Intel i5 de gen 8 + hd 620), rien de très particulier.
Sur les quatre distrib testées (fedora/ubuntu/mint/lxle), j’ai eu différentes galères. Rien de complètement bloquant, mais assez pénible pour m’en dissuader.
Au delà du problème d’accélération graphique assez pénible - et partiellement résolu via pas mal de recherches -, quelque soit la distro, j’ai eu un problème de côté audio.
Pas de saturation ou autre blague du genre, mais juste le fait que l’appli HP/B&O qui ajoute une couche de traitement audio sous windows n’existe pas sur Linux, donc on a le son “non traité”, et c’est une horreur. Le bidoullage via l’equalizer n’aura pas fait grand chose de mieux.
Et de mémoire, l’autonomie était assez mauvaise également.
Au final, ça revient à ce que je reproche à Linux depuis une vingtaine d’années : ça marche, mais toutes ces petites pétouilles plus ou moins handicapantes font qu’à titre perso, je finis par retourner sur windows, par dépit. Avec l’espoir que 2 ou 3 ans plus tard, ça marchera “mieux”.
C’est au final la force absolument énorme d’un windows, quelque soit son avis sur cet OS : ça marche sur à peu près n’importe quel hardware même exotique, sorti entre 1985 et 2021.
Dans l’absolu, tu as raison, il faut avant d’envisager l’achat d’un hardware vérifier que tout sera parfaitement compatible.
D’ailleurs, à une époque (révolue ?), Dell avait une page de support Linux qui permettait de récupérer tous les drivers nécessaires.