Sauf que, navré, tu es complètement à côté de la plaque.
D’abord, la question posée concernait les relations entre professionnels et CONSOMMATEURS.
Le job dont tu parles de dev indépendant concerne TRÈS rarement ce type de relations, et bien plus couramment une relation pro-pro pour laquelle le principe est “vous êtes grands vous vous démerdez”.
Ensuite et quand bien même, personne ne met un flingue sur la tempe pour rester à côté du téléphone.
Rappel : ça fait chier aussi bien celui qui répond que celui qui appelle -> si tu prends le temps d’écrire et rendre accessible une faq ou équivalent pour traiter les cas les plus courants (genre délais de livraison, conditions contractuelles) tu vas largement limiter les appels téléphoniques aux seules questions réellement complexes, pour lesquelles de toute façon tu aurais eu (à priori) besoin d’intervenir directement.
Enfin, je rejoins les autres : sans définition claire et vérifiable de ce qu’est une communication “directe et efficace”, les sites auront beau jeu de mettre en place un truc théoriquement efficace mais concrètement moisi pour une majorité de clients (typiquement les chatbots), voire corriger en douce au dernier moment si ça gueule (combien d’utilisateurs auraient le réflexe de prendre des captures d’écran et même comme ça le site peut arguer que t’as loupé l’accès).
Je vais être direct : ce commentaire est profondément débile.
S'il y a discrimination, positive ou négative, ce sera toujours par facteur humain, PAS algorithmique.
Et sinon...
"Estimant qu’il était « tout à fait disproportionné » d’aller aussi loin, le gouvernement avait toutefois réussi à rectifier partiellement le tir, à l’Assemblée nationale. D’une part, en reportant l’entrée en vigueur de cet amendement au 1er juillet 2020 (ce qui ne manque pas de piquant étant donné que l’obligation portée par la loi Lemaire est théoriquement en vigueur depuis septembre 2017). D’autre part, en limitant cette nullité automatique aux décisions 100 % automatisées."
Bah HEUREUSEMENT BORDEL !
La députée est d'une bêtise sans nom.
ET l'article à charge est malheureux également.
Pourquoi les administrations ne communiquent pas ? Tout simplement, selon toute probabilité, parce qu'elles en ont pour la plupart pas la moindre idée !
Entre la complexité des règles de gestion en soi (pour lesquelles je ne suis pas sûr que grand monde maîtrise réellement toutes les intrications), la manière dont celles-ci sont traduites dans une application métier, et la manière dont le calcul et son résultat sont retranscrits aux utilisateurs...
Je subodore que pour un certain nombre "d'administrateurs" c'est aussi opaque que pour les administrés.
Et autant je suis à 150% pour le fait de mettre un coup de pied dans la fourmilière (la loi Numérique), autant là on a essayé de la vaporiser à coup de bombe nucléaire.
Rappel : la fonction publique est systématiquement pilonnée depuis des années en employant de très mauvaises méthodes (réduction des effectifs et des moyens) pour lutter contre un problème réel (inefficacité au pire, "simple" lenteur au mieux, manque de réactivité et d'adaptation au changement en général).
Dans les faits, en tout cas pour ce que j'en vois actuellement (en tant que contractuel), l'informatique souffre de la contradiction d'être à la fois considérée comme la réponse à tous les problèmes et en même temps (comme dirait l'autre) un truc bête et méchant qui ne réclame aucun moyen particulier.
Aujourd’hui les décideurs commencent tout juste vaguement à prendre conscience de la criticité de l’outil informatique (ils en ont l’intuition mais considèrent toujours que c’est un truc simple et donc “digne de dactylographeurs” pour forcer le trait, genre “il suffit de claquer des doigts les ordis font tout”)
Et pourtant, j'ai pu voir ou entendre parler de projets dignes de l'informatique des années 80.
----> Forcer la main en mode "il nous les faut pour hier (ça revient à ça concrètement)" conduirait juste soit à l'ignorance faute de moyens (et donc un bordel administratif grave et des contentieux dans tous les sens par la suite soit encore plus de coûts et pertes de temps pour tout le monde) soit au mieux à une information à l'arrache qui sert à rien pour l'administrable faute d'avoir été conçue proprement.
La conduite du changement ne se fait jamais en un jour.
À l'échelle d'une administration, à fortiori perclue du dogme de centralisation, ça ne se fait même pas en moins d'un quinquennat, et encore il faudrait pour cela une vraie stabilité politique.
Il faut accepter d'être patient (en vrai, j'aurais bien des idées à proposer pour régler le vrai problème de fond de l'administration - les arrivistes incompétents qui pourrissent tout - mais je doute que ça passe XD... Du coup obligé d'attendre le renouvellement générationnel).
Comme leur but c’est de pousser snap à fond, ça ne sera pas ça la solution justement? Que ceux qui ont besoin de lib 32 bit les embarquent dans leur paquet snap?
Je suis loin d’être un expert en admin sys (à fortiori à échelle d’entreprise), mais précisément pour les grands ensembles informatiques ça me semble une putain de fausse bonne idée.
Même si désormais apparemment les Snaps incluent une fonction de mise à jour automatique, sans rien faire de spécial tu vas souffrir de problèmes d’échelle justement :
contrôles de sécurité par utilisateur / poste
espace disque perdu (oui, ça a l’air con, ça a l’air dérisoire… Sur des postes classiques, effectivement c’est rarement un problème. En revanche pour les infras de type “bureau déporté” ça grimpe vite).
bande passante perdue.
complexité pour définir l’état de ton infra à un instant T.
complexité des flux dans un environnement ultra sécurisé.
Bien sûr ça se gère :
limiter les apps par une whitelist (voire interdire l’installation par défaut et demander autorisation préalable)
et/ou exploiter un serveur intermédiaire qui sert de passerelle à l’extérieur.
Mais une fois que tu as fait cet effort là, il n y’a plus énorme à rajouter pour mettre en place des systèmes de tests des nouvelles versions de librairies.
Et à moins d’avoir énormément d’environnements de travail différents (pas courant dans une entreprise, au pire chaque département a sa gestion), la flexibilité apportée par le système de Snap est overkill.
-> Snap peut être utile à la marge en entreprise par exemple pour un dev qui veut tester “en isolation” des composants (montée de version risquée par exemple), sachant qu’un chroot te permet déjà ça (un dev a souvent l’accès root)…
Ou pour laisser une certaine marge de manoeuvre aux utilisateurs tout en gardant possibilité de contrôle (autorisation/whitelist) et facilité de nettoyage (je suppose en tout cas que c’est plus simple de virer proprement un Snapchat que faire une désinstallation en mode “purge”).
Ou dans un cadre d’infrastructure lourdement hétérogène…
Cela vaut-il le coup de laisser tomber les avantages d’une solution centralisée ? Seuls les retours d’expérience directs pourront nous le dire…
Le vrai avantage que j’y vois c’est pour les éditeurs de logiciels qui veulent toucher un large public de particuliers.
Ou pour les particuliers qui veulent maîtriser UN type d’installation quelque soit le système sous-jacent.
Ca ne peut pas être pire que le système actuel sous Windows de toute façon de ce point de vue. XD
@Vincent voilà bien un jugement d’opinion dont tu aurais pu utilement te passer :
“La semaine dernière, Canonical annonçait l’inévitable : dès la prochaine version d’Ubuntu, attendue comme d’habitude pour octobre, le système ne sera plus disponible qu’en 64 bits. Cette décision rejaillit tant sur les variantes officielles (Kubuntu, Xubuntu, etc.) que les distributions dérivées, dont Mint. Elle entraine donc de nombreux systèmes dans son sillage.Elle était cependant prévisible, car le matériel purement 32 bits est devenu très rare et des plateformes importantes ont déjà fait le grand saut ou s’y préparent activement (macOS par exemple). ”
Voilà bien un commentaire qui démontre une méconnaissance totale des enjeux.
Le nombre d’applications 32 bits employées dans le secteur publique, les entreprises privées représente très largement la majorité des applications. Les jeux ne sont que la partie émergée de l’iceberg.
Après, on peut légitimement arguer qu’une entité sérieuse aura pris des bases Debian ou Red Hat pour ses infra ou applis critiques, malgré tout Ubuntu n’est pas complètement inconnu côté desktop grâce justement à son aura de simplicité.
Canonical ne fait que se tirer une roquette à fragmentation entre les deux jambes. Quant à savoir comment ils ont pu prendre une décision aussi débile… Je n’ai pas d’opinion (j’ai lu quelques complotistes disant que MS est derrière, je ne comprends pas bien comment ils ont pu en arriver à cette conclusion XD)
Gats a écrit :
Tout le 32bits est “émulé” sans problème de nos jours, c’est juste qu’il faut avoir accès aux bibliothèques en 32bits pour pouvoir faire cette émulation. Justement ce que Canonical veut supprimer dans les prochaines versions d’Ubuntu.
Marrant comme un commentaire de 2,5 lignes traduit mieux les enjeux. XD
+1. Bon j’ai du m’y reprendre a deux fois parce que je m’étais gourré sur les différentes villes et gourré dans mon deuxième prénom
Mais soyons sérieux deux minutes, c’est quelque chose d’important à remplir avec attention avec des infos basiques, et un passeport ou une CNI si tu l’as pas avec c’est soit un cas particulier soit un problème d’organisation
Je vois pas comment ils peuvent plus simple en fait.
Après les problèmes de serveur, chez moi nickel mais bon oui c’est dommage après c’est une première
SebGF a écrit :
Voilà.
Mais faut croire qu’on est désormais intolérant à tout et que le moindre souci doit être condamné à mort après avoir dûment monté en mayonanise. Ca me blase perso de voir ces guignols systématiquement partout, que ce soit dans le publique ou le privé.
Bah non désolé, le formulaire marche mais est contre-intuitif au possible.
1/ C’est la première fois depuis que je remplis des formulaires administratifs (>20 ans), y compris des trucs sensibles genre impôts ou renouvellement de passeport, qu’on réclame de manière obligatoire (au sens premier où tu te fais jeter sinon) tous les prénoms.
Ça n’aurait pas mangé de pain de préciser que c’est indispensable pour eux pour te retrouver.
D’autant que c’est pas forcément évident pour le visiteur de deviner/comprendre qu’ils en ont besoin vu qu’ils indiquent que de toute façon en plus tu dois fournir n° de carte d’identité/passeport qui contient également les informations.
D’ailleurs, c’est d’autant plus bidon du coup que techniquement vu qu’une photo n’est pas requise n’importe qui peut enregistrer un soutien pour autrui s’il a une copie de la carte (ou les infos en tête, ce qui
n’est pas forcément déconnant pour un conjoint par exemple),
indépendamment de la volonté réelle de la personne concernée…
2/ Utiliser les codes INSEE au lieu des codes postaux, ok, si c’est plus simple pour eux qu’ils se fassent plaisir (je suppose qu’il s’agit d’une division de code correspondant à tous les bureaux de vote). Mais qu’ils PRÉCISENT alors qu’il s’agit du code identifiant le bureau de vote.
C’est la première fois de ma vie que je vois une entité l’utiliser, et à moins d’être un fan du système français de vote (et donc avoir remarqué ce numéro sur la carte de vote -du moins je suppose que ça y est indiqué-) aucune chance que ça parle.
Moi, comme tous mes collègues de l’open space, on arrive, on remplit nom / prénom (juste un), on tique en voyant les chiffres associés aux communes de vote et de naissance, on aboutit à “non trouvé”, la réaction logique c’est “leur truc est buggué on réessaiera plus tard”.
Si je n’étais pas INpactien et féru des commentaires de la communauté, jamais je n’aurais compris que l’erreur venait du non-respect de la consigne prénom au tréma/cédille près.
Pourquoi ne pas avoir proposé un formulaire accessible depuis un espace où on s’authentifie par défaut (type impots.gouv.fr) ? Il n’existe pas encore d’espace citoyen “générique” (vraie question pour le coup) ?
Entre nous, l’autre aussi ça peut en soulever… Par le biais du droit à l’image. " />
(Après j’avoue, à part un américain profond je vois pas qui imprimerait une réplique réaliste de Trump pour l’exposer publiquement. En revanche en version nain de jardin… :sifflote:)
@inextenza @OlivierJ par ailleurs je pense qu’on ne parlait pas exactement de la même chose en fait.
Vous vous parliez de la vitesse moyenne sur un trajet vélo taff.
Moi je parlais de la vitesse moyenne qu’une personne peut maintenir plusieurs dizaines de minutes sur plat sans facteur extérieur (salté de piétons -naaaaan, j’déconne… Ce sont les voitures qui occupent mon bitume que j’ai du mal à supporter " />).
C’est sans doute pour ça que nous avons l’impression d’être en désaccord net.
Si ça peut vous rassurer, dans mes commentaires précédents (y compris ceux juste au-dessus) je parlais toujours de la vitesse moyenne que je maintenais entre deux “obstacles”.
Après avoir pris le temps de refaire le calcul avec la distance exacte et mon temps moyen “usuel” (à savoir 22mn pour 7 km) on tombe tout à fait dans les vitesses moyennes de “vélotaff” que vous indiquiez (flemme de faire le calcul exact mais on doit tomber autour de 21 km/h ?). Rarissime de pas se prendre au moins deux ou trois feux… XD
Même mon record absolu en mode bourrin/beautemps/personne/feu verts ou bronzés ahem devait être autour de 18mn, et vu le différentiel d’effort pour le temps gagné ça n’en valait pas la peine -sauf pour l’aspect cardio bien sûr- XD).
A côté de ça en mode “full piste cyclable sportif sur le canal (tout plat, tout chouette XD) ma moyenne “réelle” se situait plutôt autour de 28 km/h pour une balade d’une heure (mais effectivement là je me douchais en rentrant on était pas du tout dans l’optique d’arriver présentable à la fin du trajet XD). ;)
(Et j’arrête de poster parce que sans déconner à 2h du matin, tout seul, j’ai l’impression d’être un méchant spammeur XD) (Puis dormir c’est pas mal aussi parfois -du coup bonjour à tous ;))
Le
19/05/2019 à
23h
54
“Il faut accepter de reprendre du temps”…
C’est tellement vrai, et ça n’arrivera tellement jamais tristement…
Le
19/05/2019 à
23h
49
On n’a pas la même expérience du vélotaff. ;)
D'abord, quels équipements vont alourdir ? Un jeu de fringues ? Ca représente au pire du pire 3 Kg. Des outils type "couteau suisse de vélo + pompe de secours" ? Allez, on va dire 500g.
Répartis sur la roue arrière avec de bonnes sacoches, il ne m'a jamais semblé que ça se sentait réellement pour un trajet quotidien : vraiment quotidien, note ^^ c'est con à dire mais "tous les jours" et "tous les deux-trois jours" c'est déjà pas la même. Et si justement quelqu'un ne peut/veut pas utiliser exclusivement le vélo, il peut dans ce cas emmener plusieurs jours de change d'un coup quand il va en voiture.
Après c’est sûr que si ton taff implique de trimballer de l’équipement spécifique, ce n’est plus le même enjeu. ;) Mais à part un ordi portable (et si c’est vraiment sur un métier de mobilité tu prends pas un 15 pouces de 2 Kg ^^) je pense pas qu’une majorité de gens est concernée (je vois essentiellement les artisans type plombier/électricien / homme de ménage pour lesquels de toute façon rien que du matos type escabeau donne un tout autre angle à la question de la mobilité douce XD).
Ensuite, truc débile sans l'être le diamètre des roues : la plupart des vélos "de base" sont en 26 pouces. Mon vélo de l'époque vélotaff en fait 28. La différence est considérable sur la capacité d'entretien. :)
Autre truc débile sans l'être : la transmission de vitesse intégrée au moyeu (type Vélib) : on aime ou pas, mais perso je trouve ça beaucoup, beaucoup plus confortable en gestion quotidienne, et en dépit de la seconde où tu cesses de pédaler quand tu changes de rapport à mon sens ça reste plus rapide qu'avec une transmission classique (enfin, une fois encore, pour un vélo de base : j'ai vu sur les vélos électriques haut de gamme notamment un système qui "pousse" la chaîne pour la faire littéralement sauter d'un cran à l'autre, et j'avoue c'est quasiment aussi rapide que le système intégré ;)).
Après, tout dépend de la route quoi. Mon trajet avait l'avantage de comporter une majorité de portion réservée avec croisements en T (donc pas de soucis si tu ne tournes pas tant que tu ne gênes personne pas besoin de mettre le pied à terre comme tu l'as si joliment tourné ). Sachant que j'avais un bon tiers en faux-plat de 3-4° à vue de nez, compensé par 400 mètres de vraie pente derrière XD.
Si je devais faire une moyenne "sur l'année", oui je serais effectivement plus sur du 26 km/h. La faute aux matins fatigués, aux matins galériens de circulation, au manque de bol sur les croisements ou les feux inévitables, et tout simplement au fait que je fais aucun sport par ailleurs XD.
Quand tous les voyants sont au vert, je suis certainement proche ou au-delà de 30, selon que je bourre ou pas, à fortiori quand j'ai pas d'enjeu olfactif (lire : pour le retour chez moi XD).
Enfin, je devrais parler au passé. J'ai changé de ville et de boulot, je fais tout à pied, et je sens bien que tout est rouillé maintenant quand je reprends le vélo.
FUN FACT à ce propos : dans ma nouvelle situation, j'ai pris un vélo électrique en mode "comme ça je pousse nettement plus loin les balades avec garantie de pouvoir rentrer même si je me suis claqué".
Eh bah, pour les petits trajets du quotidien, je vais moins vite avec mon vélo avec l'assistance (puisque celle-ci se coupe à 25) et en faisant au moins, si ce n'est plus, d'effort, qu'avec mon vélo de Toulouse.
Pistes d'explications ?
Vélo 'classique' poids 15 Kg (+ effort de la dynamo pour les phares intégrés ^^ pourtant).
Vélo 'électrique' poids 30 Kg.
Vélo 'classique' budget 500 euros : assez bon équilibre en termes de matos (matériau du cadre, dérailleur de qualité, équilibrage suffisant pour conserver une "inertie" agréable si tu vois ce que je veux dire)...
Vélo 'électrique' budget 600 euros : sachant qu'il fallait faire tenir le moteur et la batterie dedans, forcément le reste... XD (je dis pas que c'est de la merde hein, c'est un très bon rapport qualité prix. M'enfin c'est clairement pas le choix du siècle pour un usage vraiment intense XD).
Le
19/05/2019 à
23h
22
Je me suis sans doute mal exprimé.
Pour moi, il ne s'agissait évidemment pas de considérer que les voitures devaient "lire" les panneaux en direct. Je serais même plus pessimiste que toi sur ce point vu qu'il faut aussi considérer tout bêtement la gêne visuelle que peuvent considérer les autres usagers (notamment les camions par heure où c'est "fluide mais chargé" si tu vois ce que je veux dire).
En revanche, pour le moment, rarissimes sont les tronçons à vitesse adaptative (j'entends par là des tronçons équipés de panneaux de limite de vitesse électronique dont la valeur évolue "en temps réel" selon la politique de gestion de l'autoroute en fonction du trafic).
En d'autres termes, sur 99% des trajets, la limite de vitesse est fixe et indiquée nettement (explicitement ou par référence au code de la route local) pour chaque portion de tronçon.
Considérant qu'entre autres capteurs dont les véhicules sont bardés, se trouve un (plusieurs ?) capteur(s) GPS, et que la précision desdits capteurs t'assure aujourd'hui, sauf erreur de ma part, une précision sous le mètre...
Considérant par ailleurs que le stockage de cartes détaillées, s’agissant de formats vectoriels, ne saurait prendre une place suffisante pour représenter une contrainte technique sérieuse à l’heure où un To de stockage coûte quelques dizaines d’euros pour un particulier (donc j’imagine pas les prix en mise à l’échelle pour un industriel), où la communication sans-fil permet des MAJs de même plusieurs centaines de Mo en quelques minutes max…
Il n'y a AUCUNE. RAISON. VALABLE.
Pour qu'un véhicule ne connaisse pas ET sa position actuelle, ET le code de la route applicable à cet endroit et les kilomètres directement subséquents, ET DONC APPLIQUE CORRECTEMENT LES LIMITES DE VITESSE (entre autres règles de conduite ^^, et sauf cas évidemment de situation d'urgence mettant en danger le conducteur, et pour laquelle une solution raisonnable - cad qui ne met pas en danger les autres - implique de faire vi de la limitation de vitesse).
EDIT : my gode… “Considérant”, “considérant”… Help, mon passé juridique refait surface, je me fais entraîner par le côté obscur du commentateur internet… XD
Le
19/05/2019 à
23h
15
Bah non je n’exagère pas. ;)
C’est juste que “bon vélo” recouvre plusieurs réalités.
Pour toi et pour moi, c’est probablement un budget de quelques centaines d’euros. Et effectivement avec ce genre de vélos, et pour un trajet quotidien de moins de 15 km aller, tu vas jamais développer plus qu’une capacité d’entretien de 30 à 33 km/h sur du plat avec un bitume correct.
Je connais pour autant une bonne poignée de personnes, de la vraie vie, de mon entourage proche, qui te tapent du 40 en entretien sur du plat sans forcer.
C’est juste pas le même engagement, ni en matos (vélo à 1500 grand mini, moyenne 2000+ boules -et je parle pas d’un vélo électrique mais bien à l’huile de genoux-) ni en effort (ces gus là font des balades de 40km plusieurs fois par semaine).
Et ils arrivent avec moins de transpiration que moi avec mes 30. XD
(La transpiration traduit un effort supérieur à ce que tu as l’habitude de faire, et varie aussi selon plein d’autres paramètres dont ta capacité cardio et ton taux de graisse. Moi je suis en mode flaque, eux sont en mode bois sec. Et ben je vois bien la différence, mon collègue actuel ne présente absolument pas d’inconvénient de type boule puante et pourtant il tape ses 25 km tous les matins pour venir en vélo XD)
Cela signifie t - il que tout le monde devrait avoir ce niveau ? Certainement pas. Je dis simplement que l’on a tendance à sous-estimer la capacité humaine à se développer,
Et que quand la plupart des facteurs sont favorables (état de la route, “platitude” du trajet si j’ose dire, budget, état actuel de santé sans soucis particuliers) c’est largement rentable de faire la transition.
Le
17/05/2019 à
13h
54
Désolé je re-quote parce qu’il y a un autre point dans ton commentaire que je ne perçois que maintenant : le vélo.
Nous avons tendance à sous-estimer le vélo comme moyen de transport multi-modal et multi-usages, parce qu’effectivement, la plupart des gens ne connaissent que le vélo “basique”.
S’y ajoutent effectivement des contraintes plus fortes qu’avec une voiture, notamment sur la dépendance à la qualité des routes (à moins d’être jeune, dynamique et avec un bon cross " />) et leur disponibilité pour la locomotion douce (le vrai gros problème : très peu de routes hors agglomérations sont pratiquables en vélo, même à l’arrache, sauf à vraiment vouloir risquer sa vie).
Pour autant, il suffit de s’intéresser à ce qui existe un peu partout pour constater que seule la contrainte “bitume” reste réellement prégnante.
Pour l’effort lié à la durée ou aux pentes, les moteurs à assistance électrique font très bien le taff à moins d’avoir des pentes types piste de ski sur de longues distances.
Pour les usages nécessitant une capacité de traîne ou de charge, coupler le moteur susnommé à un modèle de vélo ayant un cargo embarqué, ou en accrochant un équipement secondaire à l’arrière, est tout à fait faisable.
Pour le simple transport de personnes (genre boulot), si t’as déjà un vélo électrique bah t’es paré, et sinon techniquement un bon vélo classique te permet après quelques semaines de pratiques de taper du 40 km/h à l’aise sur du plat. Même avec un vélo basique type Deca tu peux facilement maintenir du 30 à l’heure.
Il ne faut pas sous-estimer la capacité d’adaptation du corps humain. :)
En vrai, pour une large majorité de gens au quotidien, même les familles, un ou des vélos représentent une solution largement pratiquable en théorie : le seul truc qui manque vraiment c’est leur assurer un passage sécurisé sur les grandes interconnexions, et l’espace pour stocker les vélos (plus problématique en ville qu’en campagne pour le coup ;)). Et au-delà de ça…
En tout cas pour le trajet boulot, une popularisation des douches en entreprises (ou proches). :)
Et pour faciliter l’inter-modalité longue distance, des moyens de transports adaptés pour embarquer son vélo avec soi (vrai gros point noir pour le coup : bus c’est mort quasi partout, métro juste tolérance vite fait, train tu claques 10 euros par trajet…).
Le
17/05/2019 à
13h
43
Mon père partage ce pessimisme (certains diraient “réalisme” " />), s’appuyant sur son expérience relative aux rames autonomes de transport urbain disséminées à travers le monde.
Son opinion était en gros “quand on voit déjà la méga galère que c’est de vraiment sécuriser le transport de passagers dans un environnement hyper contraint (puisque tunnel de métro), je vois pas comment ça pourrait arriver en environnement ouvert avec des millions de variations différentes”.
Pour autant, je prenais son avis avec un grain de sel car l’intelligence artificielle et tout l’écosystème autour (capteurs notamment) n’est pas son coeur de métier, donc je me disais que lui comme moi n’avions pas nécessairement le bagage requis pour se projeter…
Du coup merci du partage. :)
Le
17/05/2019 à
13h
38
Je ne connaissais pas cette nuance effectivement. C’est intéressant, mais si je comprends bien il y a tout de même une limite brute non ?
Ou dois-je comprendre que si tout le monde roule à 130 sur une voie limitée à 90, tu es en tort si tu ne roules pas toi aussi à 130 ?
Le
17/05/2019 à
13h
36
Tu as tout à fait raison, le rail ne pourra jamais être aussi efficace que la roue pour le point à point.
En revanche, cette problématique est totalement orthogonale de la double question “véhicule électrique” - dans l’état actuel fumisterie environnementale- et “véhicule autonome” dont la seule valeur ajoutée potentielle réelle -et encore faudra bien calculer le coût de production et possession total du point de vue sociétal-, est d’éviter de payer des humains avec les charges qui vont avec comme actuellement avec les moyens “classiques” de locomotion.
Je dis réelle parce que le gain d’efficacité hypothétique sur la gestion des flux par un système totalement “à la demande” réclame une transformation de l’infrastructure, une masse de véhicules disponibles et un changement d’habitudes telle que ça n’arrivera pas avant que nos problèmes structurels en terme d’environnement et d’épuisement des ressources finies nous rattrape.
Le
17/05/2019 à
11h
05
Ça m’a fait tilter aussi : “Autopilot activé depuis 10 sec”, la voiture aurait dû évidemment ralentir…
À quoi ça sert d’avoir un “autopilot” si celui ci n’est même pas foutu d’exploiter des informations stables telles que les limites de vitesse selon le type de voie ?
Enfin bon de toute façon la voiture autonome a toujours été et sera toujours une vaste blague à base de “oui la voiture roule toute seule mais faut rester concentré sur la route et les mains sur le volant”.
Autrement dit le conducteur doit “conduire sans conduire”.
Du coup, où est l’intérêt, à part être MOINS en sécurité parce qu’on s’emmerde ferme ?
Le concept de voiture autonome n’a de sens que si la conduite est RÉELLEMENT autonome.
Ça n’arrivera pas avant au moins 30 ans, et encore, si le concept est toujours viable dans le contexte d’alors en termes de société et de ressources.
Le truc drôle, c’est que si tout ce fric avait été plutôt investi dans le ferroviaire, ils auraient pu largement améliorer soit l’interconnexion régionale soit au sein d’une ou plusieurs grandes villes. Mais il est vrai que ç’aurait été autrement plus compliqué de se positionner en tant que nouvel acteur face à des géants bien établis. :)
Vous connaîtriez un fabricant de caméras embarquées côté en Bourse ? Vu le projet débile à base de “filmons tout tout le temps mais ayez confiance l’usage sera raisonné” les ventes de matos devraient faire un bond prodigieux… " />
Très juste, j’ai tendance à oublier que Intel traîne la même archi depuis plus de 10 ans… Faut dire, ils font tellement d’efforts pour faire croire que leur nouvelle gen est révolutionnaire à chaque fois !! XD
On peut également noter qu’il y a certainement aussi un effet d’opportunité similaire à Windows/Linux, enfin je le suppose : tant qu’à bosser pour essayer de trouver des failles, autant se concentrer sur celui qui a le plus de parts de marché. :)
Le
15/05/2019 à
09h
05
Autant je suis d’accord avec toi qu’au niveau des datacenters le risque est faible, autant niveau particuliers et même dans une certaine mesure les entreprises (toutes n’ont pas une infra info rigoureuse) le risque est réel principalement par l’effet de masse.
Sinon, c’est marrant, de mon oeil de néophyte, ça donne l’impression qu’en fait Intel était plus performant depuis des années parce qu’ils ont un poil survolé les tests de robustesse…
Je note cependant que, “bizarrement”, aucun site informatique n’a refait de tests comparatifs de processeurs (à l’époque de Meltdown déjà très peu de magazines avaient fait l’effort d’évoquer le sujet).
Prenons en compte également les améliorations de microcode d’AMD…
Serais-je le seul à apprécier si un magazine “au hasard” se permettait de refaire des comparatifs sous Linux (de préférence) et Windows (au pire) ? " />
Nous ne comprenons pas la même chose. Moi je comprenais qu’il s’agissait d’une enveloppe répétable année après année, pas d’un one-shot. Dans ce dernier cas effectivement je te rejoins.
Le
14/05/2019 à
14h
19
Toujours aussi lamentables tes tentatives de troll.
D’une, l’agriculture est réellement un secteur en difficulté contrairement à la culture.
De deux, l’agriculture est réellement un secteur réclamant par essence des moyens (infrastructure, équipement, terres) sans commune mesure avec ce qui est nécessaire pour créer et diffuser des oeuvres (à fortiori avec les moyens de création numérique).
De trois, l’agriculture est un secteur réellement indispensable à la société (en termes de culture, rien qu’avec tout ce qui est dans le domaine public, tu as de quoi occuper h24 ton esprit pour le restant de tes jours, rien qu’avec les grands classiques français et européens en termes de littérature/musique).
De quatre, l’agriculture n’essaie pas de soutirer des sous de manière totalement illégitime par rapport à la culture (on reparle de la taxe copie privée avec les DRMs en pendant ? On reparle des professionnels qui subissent avec une usine à gaz digne des 12 travaux pour se faire rembourser ? On reparle du lobby qui ruine la liberté d’expression pour sauvegarder son modèle obsolète ?)
Par égard pour toi nous éviterons également de parler des aléas de l’agriculture au quotidien, notamment avec l’évolution du climat, ou de la qualité de vie au quotidien également. :)
Le
14/05/2019 à
09h
17
C’est vrai que c’est pas comme si ces 225 millions auraient pu financer à la louche soit l’amélioration d’hôpitaux (ravalement, équipement, personnel sup), l’éducation (on doit bien pouvoir payer quelques milliers d’enseignants avec ça, charges comprises) ou au pire les prisons…
Avant, je méprisais l’industrie culturelle pour ce lobby tout azimut afin de sucer autant d’argent que possible au mépris de toute logique et de tout respect du bien commun.
Mais ça c’était avant…
Aujourd’hui c’est officiel : je les exècre. " /> " />" />" />" />" />
Aussi bien pour les journalistes (“laissons la négociation collective se faire” ben voyons, clairement les journalistes ont toujours été en position suffisamment forte pour négocier un truc fair " />) que pour les internautes en général, car, à moins que vous ne l’ayez pas rappelé par souci de concision, je ne vois plus ici de limitation du champ de rémunération à des entités dépassant un certain chiffre d’affaires ou un certain nombre d’années d’existence ?
Je note aussi avec plaisir (ou pas) le fait qu’il soit prévu de protéger les “mesures techniques de protection”, sans qu’aucune définition (en tout cas selon ce qui est reporté dans l’article) vienne en préciser les contours.
Non plus qu’une quelconque obligation de rigueur minimum dans la mise en oeuvre de ces protections : si je peux accéder au contenu d’un site juste en virant la popup de merde qui me dit que je dois m’abonner pour accéder, faut-il considérer ce popup comme une mesure de protection et donc ma suppression comme une violation pénalement repréhensible ?
Si le site met en gros “contenu réservé aux abonnés” mais qu’il ne configure pas proprement son htaccess et robotstxt et qu’un moteur vient agréger le contenu, un juge sera-t-il suffisamment compétent pour renvoyer l’éditeur à son poteau en mode “apprend à gérer un site avant de chouiner” ?
Quel troll de bas de gamme, tu nous as habitués à mieux…
Puisque nous sommes en mode 3615 mylife…
Je suis passé de Windows à Linux la première fois que Windows a irrémédiablement crashé. J’étais en mode agonie “j’ai tout perdu”.
Un ami m’a parlé de Knoppix : j’ai téléchargé et gravé sur le pc de mon frère, lancé, et admiré : démarrage automatique, système complet avec environnement et réseau sans aucune action utilisateur, un clic pour monter automatiquement les partitions et les exposer en partage Samba -> données sauvegardées.
Ce jour là, j’ai décidé d’apprendre les bases de l’informatique et de l’admin système (notamment le partitionnement parce qu’il faut pas déconner). Depuis ce jour, les seuls plantages conséquents que j’ai eu avec Linux ayant entraîné de la perte de données se comptent sur les doigts d’une main, et résultaient de l’usage de softs en alpha qui annonçaient la couleur (notamment l’équivalent linux de Supercopier à ses débuts).
En quoi Linux est mieux que Windows depuis 20 ans ?
L’environnement de bureau : entièrement configurable (raccourcis claviers, apparence, bureaux virtuels, effets).
Les outils par défaut (tout spécialement avec KDE) : capture d’écran à des années-lumières de l’outil Windows (délai, incrément automatique du nom de fichier, répétition, sizing automatique), navigateur de fichiers idem (onglets, recherche intégrée, extensions des actions contextuelles), gestion du son idem (je dispose du multiplexage et de la gestion différenciée de volume avec répartition à la volée source/output depuis 2010. Sous Windows… Toujours pas).
La sécurité : espaces utilisateurs réellement cloisonnés, restriction des droits par défaut, restriction des ports par défaut (j’aime la “connexion à distance” par défaut de Windows… Ou pas) et pour peu qu’on installe proprement sécurité renforcée par la séparation physique des données. En plus de cette conception saine qui limite les risques d’exploitation de faille, on peut citer l’avantage conjoncturel qui est que la plupart des attaques sont conçues pour Windows.
Le confort d’administration : sous réserve de pas avoir une Ubuntu récente (qui semble considérer que tous les paquets doivent être mis à jour d’un coup ce qui est une aberration sans nom), TU décides QUOI mettre à jour et QUAND. Et avant même ça, depuis 2002, quand j’installe un Linux, à la fin de l’installation de 30mn, premier reboot, TOUT marche (sous une réserve confer plus bas).
Et quand tu mets à jour, tu peux toujours utiliser ton pc tranquillou contrairement à cette merde de Windows qui te bloque sur un écran pour x minutes.
Et quand il y a un problème, dans 99% des cas, le système te donne une information humainement lisible : même si toi tu ne comprends pas, tu as de bonnes chances de trouver une explication sur le net, ou au pire trouver quelqu’un qui saura comprendre. À comparer avec les codes d’erreur imbitables de Windows.
La performance système : l’empreinte disque et mémoire a toujours été largement plus basse sous Linux que sous Windows, et ça peut paraître con mais ça se sent à l’usage quand on lance plusieurs applis.
La performance utilisateur : entre les interfaces graphiques largement plus efficientes, et la ligne de commande pour les gros besoins, je suis dans une autre dimension d’efficacité pour les tâches quotidiennes par rapport à Windows.
D’ailleurs, la ligne de commande, parlons-en : sous réserve de soucis matériels (confer mon point plus bas) ou du besoin d’installer des logiciels non mainstream, tu peux complètement, je dis bien, COMPLÈTEMENT, te passer de la ligne de commande depuis 2010.
“Mais, dans ce cas, pourquoi donc voit-on encore de la ligne de commande partout ?”
Très simple.
Pour expliquer une procédure à quelqu’un, c’est 100 fois plus efficace que des captures : plus rapide pour toi (juste à écrire), plus pratique pour lui (juste à copier/coller), avec l’assurance que ton explication reste valable pour à peu près n’importe qui ayant une distribution Linux, quelque soit son noyau (plus ou moins " />), quelque soit son shell (idem), et surtout quelque soit son environnement graphique.
Pour répéter des actions, c’est de la même manière 100 fois plus efficace (d’ailleurs je suppose que ça existe mais je serais pas foutu de te trouver un soft qui “répète” tes actions desktop, à la manière d’un Selenium pour les tests fonctionnels de sites web).
De manière générale, dès que tu as un truc à faire un poil moins basique que “je vais chercher le fichier X pour le lire/écrire/supprimer”, c’est à des années lumières.
Qu’il s’agisse de faire de la gestion de fichiers de masse par caractéristiques (“chopes tous les mp3 et fous les sur mon disque externe”, “vire moi toutes les versions de ce document qui ont plus d’un mois”, “trouve moi le document que j’ai commancé à écrire mais dont j’ignore et le nom exact et le type de fichier”), de l’administration système basique (“montre-moi quels sont les fucking sous-répertoires qui prennent le plus de place”, “dis-moi quelles extensions sont dispo pour mon logiciel”), ou de l’administration avancée / du dev (“trouve-moi tous les fichiers de configuration ayant telle clé”, “modifie mot-clé A par B mais uniquement dans les lignes correspondant à tel motif, dans tel ensemble de fichiers”)…
Absolument AUCUN outil ne pourra jamais fournir à la fois la rapidité et l’adaptabilité de l’intelligence humaine à qui tu fournit un langage et des opérations de base à combiner.
La ligne de commande, ce n’est pas une plaie, c’est une bénédiction, un investissement 1000 fois rentable. Faut juste accepter de brancher son cerveau pendant le temps nécessaire pour assimiler les commandes utiles pour son usage, et apprendre comment on peut les combiner.
En fait, le seul vrai prix à payer pour avoir une expérience informatique sereine avec Linux c’est…
Jusqu’en 2017, faire son deuil des jeux triple-A. C’est encore plus ou moins vrai au cas par cas, en 2020 il sera réellement faisable pour tout un chacun de jouer à la grande majorité des jeux avec un minimum d’effort. Les outils communautaires conçus pour éviter la ligne de commande ont beaucoup gagné en simplicité et robustesse, et en parallèle il y a des travaux de fonds menés sur les pilotes de matériel et les interfaces audio/vidéo.
Choisir son matos (et accepter de pas prendre le truc top moumoute à la pointe) : ça a toujours été vrai, et ça le restera probablement encore des années : mis à part pour AMD, tu es sûr de galérer si tu prends un truc qui vient de sortir. En revanche, si tu prends du matos qui a au moins 18 mois d’existence, tu es presque sûr que le noyau le plus récent le prendra en charge, sauf matos ultra-exotique.
Peut-être que pour certains c’est bloquant, pour moi ça n’a jamais été un problème : de toute façon comme ça ton budget est moins violent (surtout pour proc/carte graphique / réseau), et pour les périphériques type imprimante ou casque grosso modo il n’y a pas d’innovation réellement impressionnante depuis des années.
J’ai la flemme de faire la même sur tous vos articles récents de Nxi et IH (comme l’installation à distance ou la présentation de Chocolatey) donc j’en fais un global ici.
MEEEEERRRCIIIIIIIIIIIIII (oui je gueule c’est pour être sûr que vous entendez " />)
Sérieusement, merci beaucoup pour ces tutos clairs et complets d’aide à l’administration de machines Windows/Linux, ça m’a remotivé à acheter un Pi pour mettre les mains dans le cambouis.
+1000 Les données sont et seront toujours le nerf de la guerre.
A force de se faire enfler, beaucoup ont compris qu’il valait mieux un logiciel “good enough” mais qui t’offre une porte de sortie (voire d’entrée ^^) simple et efficace pour tes données, qu’un logiciel top moumoute qui t’obligera à te couper une couille et t’arracher les dents d’or pour espérer en sortir… S’il en est encore temps soit dit en passant…
Et effectivement, de ce point de vue, le logiciel libre, même le plus mal codé qui soit, te fournit intrinsèquement une porte de sortie garantie dans 99% des cas (je ne vois guère que le cas d’un logiciel libre qui utiliserait exclusivement un format propriétaire pour l’enregistrement des données, mais outre que je doute que ça existe en vrai, à ce niveau là, c’est demander à se faire mal que de choisir un truc pareil).
Après, relativisons tout de même : la discussion a eu tendance à se concentrer sur les applications interagissant avec des fichiers, cela dit une bonne partie (et de plus en plus, notamment parmi les applis critiques) s’appuient sur des bases de données. Ca veut pas dire qu’une migration serait facile, m’enfin, c’est normalement faisable dans quasi toutes les situations (même si parfois à coût déraisonnable).
Le
02/05/2019 à
23h
18
Bah non ce n’est pas totalement idiot, bien au contraire, c’est très intelligent.
Ca oblige à recoucher sur le papier les caractéristiques du produit/service requis.
Quand bien même la solution actuellement utilisée est propriétaire, quand bien même tout le monde sait que là tout de suite le choix le plus raisonnable sera de renouveler la licence (= personne ne pourrait fournir une solution équivalente à l’instant T) ça permet…
aux concurrents de la solution actuelle d’avoir une idée du besoin existant (peut-être n’en feront-ils rien, peut-être verront-ils une marge de manoeuvre avec un produit à eux, peut-être feront-ils un recoupement avec d’autres marchés publics pour considérer qu’il y a un investissement viable à mener).
à l’administration de mettre un minimum de pression sur l’éditeur, ce qui est bien le minimum sachant à quel point la plupart des éditeurs tiennent les administrations par les couilles et se font un plaisir de resserer l’étau chaque année.
Quant à ton point sur les logiciels libres, bah il est out aussi.
Je suis tout à fait d’accord que dans la réalité, “libre” ne signifie pas “easy peasy à adapter/reprendre” et que donc un code source libre n’apporte pas, en vrai, une garantie intrinsèquement forte de robustesse et de pérennité…
Malgré tout, le simple fait que le code soit librement récupérable et exploitable rend effectivement une telle solution parfaitement exploitable par tout un chacun.
Ex : l’administration a misé sur un mauvais cheval : solution libre abandonnée parce que l’éditeur a coulé (dommage XD). Eh bah, au moins, ils savent que n’importe qui de compétent pourra assurer la migration des données vers une nouvelle technologie. Ce sera pas forcément (voire forcément pas) simple selon les points de départ et d’arrivée et les moyens donnés aux équipes, mais AU MOINS tu as la garantie d’avoir le code source, le vrai code source, et tout le code source, avec éventuellement une doc potable.
Un éditeur propriétaire ? Paye tes années de galère à attendre la liquidation totale, à négocier les droits sur le logiciel pour en devenir pleinement propriétaire, puis à pleurer ta race à chercher les supports sur lesquels le source est stocké (j’admets, ce dernier point est plus discutable, on peut considérer qu’un éditeur logiciel aura un minimum de procédure de sauvegarde de son fonds de commerce… Néanmoins, les faits divers de type “merde on a tout paumé” reviennent de temps en temps).
Ex 2 : l’administration utilise un logiciel à la base conçu pour un besoin “standard”. Or au fil des mois son besoin à elle s’éloigne de la vision de l’éditeur d’origine.
-> Logiciel propriétaire : pas le choix, il faut son accord : au mieux, ça peut intéresser d’autres clients, tu paieras un prix presque honnête, mais du coup tu vas poireauter un bon moment (puisqu’il faudra réfléchir à une conception de la fonctionnalité qui plaise à tous). Le cas le plus courant, ton besoin est spécifique, ton instance était déjà customisée, tu vas raquer sans même avoir de prise sur le délai de livraison. Le pire des cas ? Ton besoin n’a aucun intérêt pour l’éditeur et peu importe le prix il n’a juste pas les moyens ou l’envie de s’emmerder à gérer ça.
-> Logiciel libre : au mieux, tu as choisi une techno solide et populaire : tu auras l’embarras du choix. Au cas le plus courant, tu auras quelques boîtes qui maîtrisent, ça te laisse toujours une marge de négociation. Au pire (plus) personne ne connaît, tu peux soit décider de développer l’expertise en interne ou mettre en place un programme de support dédié avec un de tes partenaires de presta historiques.
NOTE : les deux exemples se sont déjà produits et se reproduiront de nombreuses fois.
Les éditeurs ont bien commencé à réaliser à quel point ils avaient poussé le bouchon trop loin, et beaucoup ont peu à peu assoupli leur politique de PI en mettant en place des licences “permissives” sous lesquelles tu peux modifier toi-même le produit. Mais c’est trop peu, trop tard, quand les mêmes éditeurs ont joui pendant 20 ans à claquer des hausses de prix se traduisant par une inflation budgétaire se comptant en dizaines (voire centaines) de pourcent pour les administrations.
Pas pour rien qu’ils veulent nous vendre du cloud à toutes les sauces d’ailleurs, la nouvelle prison dorée. Fort heureusement le traumatisme est encore assez présent pour que beaucoup de décideurs se méfient…
Au-delà du fait qu’à ta place, je réviserais mon vocabulaire (ou je changerais de “boulangerie”, au choix)…
Oui, clairement il est profondément DÉBILE d’ignorer complètement quelqu’un à cause d’un trait de caractère ou de comportement. Fût-ce un trait avéré (reste à prouver ici), fût-ce un que l’on considère profondément immoral (comme dans ton exemple).
En premier lieu, quand tu creuses un peu l’histoires des personnes ayant marqué leur temps (génies scientifiques, artistiques ou littéraires par exemple), tu trouves souvent des comportements repréhensibles. Les déséquilibrés (au sens le plus large) sont tout autant utiles à la société que des gens “équilibrés”, bien pensants etc.
En deuxième lieu, même pour une personne normale, il est nettement plus efficace en termes de société d’accepter les personnes, quitte à ajouter quelques contraintes spécifiques par rapport au trait suscité, que de les rejeter complètement.
Les rejeter implique de les cloisonner et les enfermer dans cette image, et donc de les pousser à persévérer dans le comportement. Les accepter implique au contraire de leur montrer que l’intégration reste possible, et va les inciter (normalement du moins) à fournir les efforts requis de leur part.
Par exemple, pour reprendre ton boucher qui fait du pain que tu penses pédophile (allez, mettons même que c’est avéré prouvé etc), il n’y aurait AUCUNE FUCKING RAISON de ne pas lui acheter du pain, ou de ne pas lui dire bonjour. Aucune raison non plus de lui interdire de parler ou d’approcher tes enfants. Simplement, jamais tu les laisses seuls avec lui à priori (je dis à priori parce la réalité serait même plus nuancée).
Pourquoi croyez vous qu’il y a en France (et dans à peu près tout pays civilisé) la notion de “purge” ? Tu commets un délit/crime, tu purges ta peine, après tu es “quitte” (éventuellement avec un suivi ou une aide à la réinsertion, et une trace dans le dossier pour les cas sérieux). Bah oui, parce qu’il est sociétalement plus efficace d’avoir ce système (pour plein de raisons que je ne détaillerais pas, le commentaire n’étant pas le format indiqué pour une thèse) que d’avoir une vision binaire “t’as commis un crime t’es une sous-merde à vie” (raison pour laquelle le système américain où des gens peuvent signaler des “pédophiles” -parfois même sans condamnation avérée - profondément inique et débile).
Sauf que si tout un chacun se comporte comme un gros crevard égocentrique et agit au quotidien avec cette vision binaire, bah forcément le système se grippe beaucoup plus facilement.
Je comprends ton point, mais je ne peux pas décemment considérer comme pleinement sécurisé un système qui, par défaut, entre autres aberrations encore valides en 2019, te laisse accéder aux fichiers d’un autre utilisateur.
Et je ne parle pas des aberrations “systèmes” de sécurité en termes d’élévation de privilèges où il a fallu attendre Vista pour en avoir les premiers balbutiements. Où des erreurs qui sont encore aujourd’hui complètement absconses, pour ne pas dire “cryptiques on purpose pour vendre du support”.
Windows a tout simplement conçu par des mecs qui codent d’abord et réfléchissent après pendant des années, dirigé par des gens dont l’objectif premier n’est pas la qualité du produit mais l’enfermement de l’utilisateur. C’est cool qu’on ait enfin un niveau de qualité acceptable, et qu’on puisse enfin également profiter d’un outillage d’adminsys / dev robuste, m’enfin, il aura fallu attendre 2017 (ou 2018 ? Je ne sais plus) pour avoir une user/dev expérience comparable à ce qu’on a sous Linux depuis au moins 2000.
Après c’est sûr il faut accepter de passer du temps à apprendre au départ, mais l’investissement est tellement rentabilisé derrière… :)
Et, une fois encore, en entreprise, tu peux toujours avoir la chance de disposer d’un admin sys ou d’un dev compétents qui vont pallier tout ce qui ne va pas. Tu as également une config de base différente du système, et je suppose que tu peux payer pour avoir plein d’outils d’administration en plus pour te faciliter la vie…
Tout en restant soumis aux aléas de changement de licence, changement de code, etc…
Les systèmes Linux ne sont pas non plus des silver bullet parce que bloquer une version de système (ou mettre en place des prises à distance sécurisées) requiert des bonnes compétences d’administration, mais au moins tu as le choix des armes : outils, prestataires (ou apprentissage interne), délais…
Et s’il faut développer du code pour pallier un manque, pas de soucis de licence non plus (enfin, moindre dirons-nous car il y a tout de même des cas limites).
Le
24/04/2019 à
12h
30
D’une part, ce n’est pas parce que Windows est largement utilisé en entreprise que c’est une bonne idée pour autant (plus généralement, on ne peut jamais prendre exemple sur un usage de masse pour légitimer une idée ou une action, sauf à vouloir rapidement arriver à un point Godwin).
D’autre part, je parlais en tant que particulier : confier ses données à un système qui a mis 20 ans à obtenir un niveau à peu près acceptable de sécurité et qui se trouve encore des années derrière Linux en termes de maintenance (Il a fallu attendre Windows 8 pour enfin avoir un système exploitable post-install sans galérer à la main pour les pilotes réseau/son/graphique. En 2019, on a encore le concept du “j’installe les mises à jour sans prévenir quand tu éteins/allume l’ordi”) et d’ergonomie (plein de trucs de base toujours manquants, les bureaux virtuels arrivés bien trop tard pour être encore utiles maintenant que le multi-écran est démocratisé).
“Juste à titre d’exemple bref !”
Le
23/04/2019 à
18h
01
Je ne maîtrise certes pas les arcanes de l’administration Windows (entre autres parce que je ne comprends pas que l’on puisse même envisager de faire autre chose que jouer sur ce système -en tout cas en tant que particulier éclairé) je dis simplement que, quelque soit la manière dont on le prend, un accès à distance c’est un risque supplémentaire à gérer.
Et que Microsoft n'a que peu d'intérêt à le gérer sachant que...
1. Le commun des mortels peut s'appuyer sur des solutions tierces éprouvées et fiables (et qui ELLES du coup portent éventuellement la responsabilité d'une intrusion quelle qu'en soit la cause).
2. Quant à la minorité parmi ce commun qui a la culture ou le savoir-faire requis pour apprécier ce type d'usage peut très bien soit payer une licence pro si elle maîtrise l'administration Windows, soit payer une licence pro d'un outil tiers, soit apprendre à maîtriser par elle-même une des solutions open source existantes (je me demande même s'il n'y aurait pas moyen d'utiliser l'espèce de "sous-système Unix" fourni par Windows pour ça).
3. L'usage reste extrêmement limité à priori pour la plupart des utilisateurs particuliers (n'oublions pas que le public de NextInpact n'est PAS représentatif. DU TOUT XD)
4. Au demeurant, installer un outil trop performant "par défaut" sur un système aussi largement répandu (je doute qu'on soit sur le même ordre de grandeur entre le "parc" Home et le "parc" Pro) risquerait juste de mettre Microsoft en position d'abus de position dominante (comme il a fini par être considéré pour Internet Explorer même si ça a certes demandé à peu près 15 ans de lutte), pour un service ayant peu de valeur ajoutée visible pour l'utilisateur moyen, tandis qu'il a un intérêt évident pour les entreprises.
PS : Le tutoiement est de convention sur NXI après peu m’importe ;)
Le
23/04/2019 à
15h
24
Je te réponds “théoriquement” en ayant rapidement relu la page de tarification.
Tu payes quoiqu’il arrive par mois en fonction de la quantité de données stockées.
Ensuite tu as un quota mensuel de 10 Go que tu peux récupérer, mais c’est l’exception. Le principe reste que tu es payé selon un savant calcul qui combine à la fois le “numéro” de la demande (tu es ponctionné toutes les 1000 demandes et je suppose que une demande = un fichier téléchargé), la vitesse de la demande (rapide/normal/lent) et le poids du fichier téléchargé.
Et je suppose également que les calculs sont faits de manière consolidée une fois par mois mais là c’est totalement sans source que je dis ça… :)
[QUOTE]“Comme pour le chiffrement Bitlocker, on peut regretter ce choix puisqu’elle peut avoir tout son intérêt pour le grand public, notamment dans le cadre d’un dépannage informatique. Ils doivent donc se contenter de l’Assistance rapide.” [/QUOTE]
Baaah... Non en fait. Au contraire pour le coup il vaut mieux s'en féliciter.
On parle quand même d'une fonctionnalité qui...
- Permet somme toute assez facilement de créer un vecteur d'attaque "permanent" (n'importe qui peut tenter de se connecter tant que le port est ouvert et qu'il connaît au moins le nom d'utilisateur - ajoutons à ça les ravages du manque de rigueur des gens et des techniques de régroingénierie sociale).
- Et paradoxalement n'est pas forcément si simple à exploiter pour un utilisateur lambda (il faut comprendre les options, savoir un minimum utiliser la ligne de commande).
Bien plus que pour BitLocker (pour lequel je suppose qu'ils ont simplement craint un nombre exponentiel de demande d'assistances de gens qui se sont "mis à la porte" parce qu'ils ont perdu leur mot de passe, bien qu'il y a aussi un aspect "effort supplémentaire de configuration pour les intégrateurs"), ce choix se légitime pleinement pour l'accès à distance.
Pour ceux qui veulent un accès simple et sécurisé, il y a déjà Teamviewer (complètement indolore à prendre en main - ne nécessite même pas d'installation -, usage gratuit entre particuliers, mot de passe généré pour chaque connexion).
Compte tenu de ces aspects, le ratio “risque” (de déployer la fonctionnalité sur des centaines de millions de postes, même si désactivée par défaut) / “bénéfice” (fonctionnalité malgré tout de niche, avec des dizaines de solutions concurrentes plus simples et plus connues) d’en faire une fonctionnalité de base n’est pas terrible.
Alors que dans un contexte professionnel (entreprise), on peut supposer qu’il y aura un administrateur système chargé d’une part de sécuriser les tentatives d’accès (firewall + clé + log) d’autre part de rendre l’exploitation intuitive pour les utilisateurs (activation et configuration pour eux de leur poste).
Bref, c’est complètement logique (et je m’étonne moi-même de dire ça d’un choix de Microsoft sur une segmentation fonctionnelle de leur offre d’habitude je fais parti des plus virulents " />)
Bravo pour le procès d’intention ! Du grand journalisme… Ou pas en fait.
Récap ? UN message d’UN utilisateur pour UN constructeur sur CERTAINS modèles de cartes mères —-> “BOUH SI ÇA SE TROUVE PLEIN DE CONSTRUCTEURS VONT POUSSER À L’ACHAT DE NOUVELLES CARTES MÈRES !” “BOUH AMD ILS RESPECTENT PAS LEUR ENGAGEMENT !”
Ah bon ?
AMD est responsable de la conception du processeur et des chipsets éventuellement de l’agencement des cartes mères et des recommendations de dimensionnement. Aucunement de l’intégration en tant que telle notamment sur le dimensionnement effectif et la qualité des matériaux. Ou alors, SOURCE le point. Non seulement nous n’avons aucune obligation de te croire sur parole, mais j’oserais dire nous avons le devoir de douter.
Tu montes en épingle un sujet qui, pour le moment, brille par son flou si j’ose dire, SANS MÊME CHERCHER À CREUSER : ton actualité, en termes d’information pure, n’importe absolument rien de plus par rapport à ce qu’on peut trouver ailleurs. J’en ai appris plus sur le sujet en lisant les commentaires de news sur Cowcotland. Ça craint. Je rejoins le point précédent : si tu prétends qu’AMD aurait une responsabilité directe sur la manière dont des tiers indépendants mettent en oeuvre une incompatibilité matérielle, cela veut dire en creux qu’AMD a failli d’une manière ou d’une autre dans la définition et la communication de ses spécifications à respecter. Source ? 0. Argumentation ? Nada. J’ai l’impression que tu en sais autant que moi, et ce n’est pas bon signe.
Si le cas était avéré mais que MSI est seul à adopter cette politique (donc il n’y a bien aucun problème ni aucune erreur de la part d’AMD), eh bien ils vont juste se tirer une roquette entre les jambes, tant pis pour eux et tant mieux pour les autres.
S’il devait en revanche s’avérer que cette limitation artificielle est décidée par l’ensemble des fabricants de cartes mère, AMD n’en sera certainement pas ravi : leur impératif pour le moment est de gagner des parts de marché sur tous les fronts, et tout frein leur causera du tort. Pour autant, ils n’ont aucun lien de subordination ou de domination sur les fabricants de carte mère.
Et, pour rappel, ils n’ont pas non plus les moyens financiers de proposer (voire imposer) des conditions contractuelles, contrairement à Intel.
Quant à venir les tacler en mode “vous pourrissez mon image vous êtes des cupides”, cela n’aura aucun impact vis-à-vis du grand public (qui s’en fout comme de l’an 40, ne connaît probablement même pas la distinction) ni vis-à-vis des grandes entités (pour qui seul compte le ratio investissement/bénéfices, et se fout royalement des relations entre ses fournisseurs, tout comme tu te fous de la relation entre le commerce ou tu achètes tes encres d’imprimante et le contrat de fourniture entre ledit commerce et le fabricant). Pire, cela pourrait mettre en exergue le relatif manque de poids de négociation dont dispose AMD et/ou dégrader ses relations avec les constructeurs, à une période charnière où ces derniers commencent timidement à réintégrer du matos AMD dans leurs machines.
Bref, cet article est, désolé de n’avoir pas de mot plus doux, complètement inepte. Digne de Clubic, et ça m’indigne. (Je ne parle même pas de l’autre qui fait des comparaisons foireuses entre AMD et Intel qu’un collégion n’aurait pas osé et qui remet sur le tapis une soi-disant responsabilité d’AMD qu’il n’assumerait pas sans le moindre argument).
Autant ne rien écrire si c’est pour survoler (voire ignorer) le fond.
En revanche, grosse frustration de ma part : comment fait-on pour retrouver les articles connexes ???
Je ne sais pas depuis quand ça a disparu (sans doute longtemps) mais avant dans mes souvenirs on avait ce type de suggestions.
Je suis en train de repréparer un mail d’information, et je souhaiterais m’appuyer sur les articles de fond que vous avez produit ces dernières semaines…
Les actionnaires avaient fait exactement le même coup à chaque investissement lourd de Free : d'abord la première période de fibrage intense, ensuite la téléphonie mobile.
Ils veulent le beurre l’argent du beurre et le cul de la crémière, sans comprendre (ou en faisant mine de ne pas) qu’il faut déjà chercher la crémière, acheter la vache, tirer le lait et le mettre en baratte.
Un INvestissement se fait à échéance 3-4 ans minimum. Dès qu'on parle d'infrastructure ça peut sans doute aller beaucoup plus loin.
wanou2 a écrit :
Free annonce un résultat un baisse et prévoit des résultats 2019 et 2020 en baisse également (20% par rapport à la trajectoire prévue) malgré un plan de cession d’actif. C’est certainement positif à tes yeux ça l’est moins aux yeux d’autres.
Ok. J’ignorais ce point. Je peux donc comprendre la sanction de ceux qui comptaient vendre prochainement. Mais à ce compte là la bonne pratique c’est de se tenir au jus au quotidien pour anticiper un minimum les résultats.Ou de miser sur des boîtes à fortes fluctuations et faire des transactions à haut risque. Mais sinon, règle de base : choisir une boîte qui a une vision et considérer les fonds bloqués pendant 4 ans minimum. Ca, sauf crash international de bourse / effondrement du marché principal de l’entreprise / gros scandale entre-temps, ça marche toujours.
Le
19/03/2019 à
15h
59
Bref, comme d’hab les actionnaires sont des boulets.
-> Conversion continue des abonnés mobiles du forfait le moins cher au forfait le plus élevé
À moins que la plupart des gens se soient convertis pour éviter le hors forfait et/ou que le hors forfait soit nettement plus rentable en moyenne que les abos fixes, Free Mobile est dans une bonne passe : on a une perte sèche de ~2% en apparence sur le nombre d’abonnés, mais compte tenu de la conversion au forfait le plus onéreux et les volumes d’entrée/sortie sur chaque forfait, le bilan est plus que positif.
Par ailleurs, la vente de terminaux était prévisible, pour ne pas dire structurelle : les gens principalement intéressés par le côté “découplé” sont justement ceux qui veulent pouvoir librement choisir où l’herbe est la plus verte à tout instant, tout comme ceux qui se satisfont du même terminal pendant plusieurs années.
Donc par essence, ce service là ne peut pas être un facteur de traction (sauf si Free passait des accords d’exclusivité avec Samsung/Apple, seuls capables d’attirer le chaland peu important le réseau derrière).
-> Perte de 32000 abonnés (soit ~0,5% de leur base)
Considérant…
Qu’il y a beaucoup de gens qui profitent, chez Free comme ailleurs, des offres type “Vente Privée” ou “Promos spéciales” et se désengagent ensuite.
Commande >100 000 Delta (= abo hors de prix = chouette marge)
Couverture fibre (j’attends toujours de les voir venir perso, sur Toulouse comme à Lille, mais bon on va pas mettre en doute leur parole par principe hein… Si ? " />)
Là encore, le bilan est effectivement positif : ils sont armés désormais pour redevenir agressif en termes de qualité de service (reste à voir à quel prix - la Delta reste un échec en termes de positionnement de marché, heureusement la Revolution reste une bonne box maintenant que les bugs sont corrigés XD).
-> Bénéfice en baisse en France mais en hausse globalement
Sachant en plus que… “résultat net de 330 millions d’euros, soit une diminution de 18,8 %.” “endettement net est de 3,983 milliards d’euros fin 2018, contre 2,449 milliards fin 2017.” “ratio d’endettement est de 2,3x au 31 décembre 2018, en hausse de 0,9 point sur un an. ”
Donc si on résume, Free investit plus (frais finalisation+production+livraison+promotion Delta, antennes 4G, extension fibre) mais réussit tout de même à être en hausse sur les bénéfices nets.
Autrement dit, Iliad fait de la putain de gestion saine : profiter d’une bonne dynamique pour renforcer ses bases afin d’anticiper les années à venir en déroulant une stratégie planifiée sur 5 à 10 ans (et probablement initiée à peu près en même temps que la conception de l’offre fixe “tout en un” avec la Delta).
Je me corrige : la plupart des actionnaires sont des décérébrés profonds (cela dit ce n’est pas nouveau, et c’est bon pour ceux qui veulent se faire des thunes finalement) : ils “punissent” une entreprise qui, pour une fois, a un vrai plan de développement. Gg les mecs " />
En bref, Iliad a réussi à stabiliser sa situation sur le mobile en France avec environ 4 ans de retard dûs aux magouilles des trois autres, et du coup remet l’accent sur le fixe pour revenir au niveau des autres opérateurs (qui, pour rappel, ne se sont réellement décidés à fibrer qu’après d’être fait massacrer sur l’ADSL en termes d’équilibre réseau/services) en jouant à la fois sur la qualité réseau (fibre) et sur la “qualité” des services (Delta - toujours entre guillemets vu le positionnement services/prix perché à moins que ça ait changé depuis le lancement -).
Et là, début 2019, on a une convergence sur l’offre côté réseau (enfin, selon eux) et matériel (plus ou moins). Plus qu’à adapter les offres pour rester compétitif (à moins qu’ils ne proposent encore la Fibre avec une box normale ?) et surtout, communiquer sur le fait qu’ils sont revenus dans la course !
Parce que pour moi perso, “la fibre Free” c’était un concept mort et enterré… ^^
Cocquecigrues a écrit :
Autour
de moi j’observe beaucoup de jeunes (20-25 ans je dirais) ne pas
prendre d’offre fixe lorsqu’ils s’installent. Le smartphone en mode
routeur wifi leur suffit. L’échantillon est loin d’être significatif et
je ne sais pas si c’est une tendance globale, mais ça se comprend. Dans
les zones non couvertes par la fibre, l’ADSL affiche moins de capacité
(de débit) qu’une connexion 4G. Entre ça et la montée des prix chez
Free, la nécessité d’avoir une connexion fixe se fait de moins en moins
sentir j’ai l’impression. Surtout pour les petits revenus.
Très juste, il y a également l’évolution des usages qui joue. Cela dit à mon sens ça affecte de manière “équitable” tous les opérateurs côté fixe. Côté mobile, ça fait une carte de plus à jouer pour Free sur le papier vu la limite de 100 Go. Mais auraient-ils de quoi tenir la charge si réellement les gens pour qui le plafond suffirait se convertissaient ? Perso j’en doute.
Depuis des mois j’ai vraiment une chouette qualité de débit en 4G chez Free à peu près partout, mais je soupçonne aussi que la concentration d’usagers n’est pas la même par rapport aux autres opérateurs (en tout cas Bouygues/Orange). ^^
Et la question de base, à savoir “le citoyen utilisant SON ordinateur ou SON téléphone voulait-il vraiment souscrire un contrat d’utilisation avec Google ?”
Autant le coup du navigateur par défaut peut vaguement s’expliquer même si on reste dans l’abus de position (confer Microsoft et Internet Explorer qui a fini par se faire taper sur les doigs), autant sur ordinateur il n’y a JAMAIS eu de CONSENTEMENT.
“ Si tu n’as pas les mêmes valeurs, soit. Mais ne les impose pas aux autres par tiers interposés.”
C’est marrant que tu dises ça car c’est très précisément ce que fait Google justement : imposer ses valeurs (exploitation des données, obsolescence de la notion de vie privée) aux autres (les utilisateurs) par tiers interposés (contrats avec Sourceforge -pour n’en citer qu’un- pour inclure Chrome en ninja dans les installeurs de softs qui n’ont rien à voir -et dont on a probablement pas requis l’autorisation des auteurs non plus, vive les licences d’utilisation bardées de clauses léonines).
Le
13/03/2019 à
15h
47
Oui, bien sûr.
Ça n’a certainement rien à voir avec les manoeuvres plus qu’agressives de Google de type :
navigateur par défaut d’Android
notifications sur Google.com quand on n’utilise pas Chrome
ET SURTOUT navigateur INSTALLÉ AUTOMATIQUEMENT ET DÉFINI EN NAVIGATEUR PAR DÉFAUT SANS DEMANDE (ni même avertissement généralement) car intégré aux installeurs de bons nombres de logiciels gratuits.
Bref, rien à voir avec le fait que Google fasse l’équivalent d’un viol informatique du système en comptant sur l’insuffisance culturelle des utilisateurs pour comprendre ce qui se passe et s’en soucier.
Pour moi le triple play c’était Internet + Téléphonie (fixe) + Télévision. :)
Et le quadruple play techniquement Free en a proposé une variante dès l’origine puisqu’on pouvait avoir un forfait (certes très restreint) pour 0 euros en ayant une freebox. ^^ Mais effectivement ce n’étaient techniquement pas les premiers à le faire.
On peut cependant noter, l’heureuse coincidence qu’il y a eu entre la confirmation définitive de l’arrivée de Free Mobile dans les 12-24 mois à venir et l’émergence du concept de 4P chez les opérateurs concurrents. Hasard total. " />
Le
07/03/2019 à
01h
02
Agreed.
Free en tant que boîte agréable à vivre et innovante a vécu (si tant est qu’elle ait jamais existé, mais je serais tenté de dire que c’était effectivement un cadre intéressant dans les premières années - même si certainement en mode rush permanent dès le départ -).
D’ailleurs, on pourra noter que depuis quelques années Niel est beaucoup plus discret. Cela est-il lié, je ne saurais dire, mais en tout cas Free s’est clairement rapproché de ses concurrents en termes de pratiques de management. ^^
Le
06/03/2019 à
18h
39
Magnifique réponse à deux balles sans source ni argumentaire.
A ce compte là d’ornières, je te répondrai que je n’ai jamais été aussi satisfait de mon réseau mobile que depuis que je suis chez Free, ce qui serait du même niveau de mauvaise foi.
Alors qu’en vrai, je n’en suis satisfait que depuis 2-3 ans en fonction du contexte (lire : ville / campagne / montagne)… " />
(Anecdote illustrant l’amélioration nette de service : je vais dans la même station de ski chaque année depuis… Mieux vaut pas compter.
Il y a 3 ans, Free n’existait pas (et tous les opérateurs étaient bien pourris, 0 internet).
Il y a deux ans, tu pouvais choper une antenne mais c’était tout pourri, je passais par Orange de soeurette pour avoir un peu d’internet mais globalement tous les opérateurs étaient en PLS sur la qualité réseau en période de pointe.
- L’année dernière, on pouvait téléphoner correctement et on avait une connection “3g-sub” mais suffisante pour mon quotidien chez Free, un autre opérateur (Bougues ou Orange, je sais plus) tirait son épingle du jeu. En creux, on avait déjà un débit correct.
Cette année j’étais en permanence en antenne en mode 4G, avec minimum de 600Ko/sec permanent, et jusqu’à 6-7 Mo en heure creuse…
Ce qui m’a permis de télécharger des jeux steam, à 1850m, depuis mon mobile, plus rapidement que depuis ma ligne fixe “pseudo-fibre” Red bridée à 3 Mo/s. " />
Il serait temps d’actualiser tes connaissances plutôt que radoter. :)
Le
05/03/2019 à
15h
56
Je trouve dommage que le tribunal n’ait pas ordonné la publication, aux frais de Bouygues Telecom, d’un message dans Les Echos etc avec le libellé “Bougues Telecom débouté de ses tentatives de bridage juridictionnel”. " />
Tu n’est pas d’accord sur mon évaluation du nombre de sites ? Tu penses qu’il y en a plus ? " />
Je suis tout à fait d’accord pour dire qu’il y a des sites “d’information” qui sont tout autant douteux en termes de licéité que des sites pornographiques (notamment des sites d’extrême-droite, à tendance jdihadiste ou autre) mais à ma connaissance tant qu’un employé se contente de consulter du contenu (le délit de consultation habituelle ayant été retoqué -à moins que je ne sois plus à jour-) il sera difficile de venir intenter une action en justice contre l’employeur.
Même simplement en termes de détection, il faudrait que quelqu’un prête réellement attention à ce que fait son collègue (ou que ledit collègue ait par ailleurs un comportement irrespectueux/agressif) pour déceler la consultation de sites tendancieux.
En revanche, consulter/télécharger un contenu illégal, c’est un acte qui en cas de détection va retomber immédiatement sur l’employeur, même s’il peut par la suite apporter la preuve que l’employé a agi en dehors du cadre autorisé.
Entre les contenus d’éditeurs uploadés sur les plates-formes (contrefaçon), des “revenge sex tape” (atteinte au droit à l’image, atteinte à la vie privée), les vidéos “contraires aux bonnes moeurs” (zoophilie ?), les vidéos illégales (pédophilie), il y a juste trop de contenus susceptibles de contrevenir à la loi d’une manière ou d’une autre.
Si un employé consulte une vidéo porno (ou l’échange avec des collègues), quand bien même il aurait l’autorisation pour ce faire, il y a également un risque qu’un(e) collègue s’en offusque et décide de monter le truc en épingle sur un pseudo fondement de harcèlement sexuel. Même si c’est bidon, ça fout une ambiance de merde en interne, ça peut pourrir l’image en externe.
=> Ça ne vaut juste pas le coup de laisser tenter. Autant tout bloquer point.
Exactement comme pour le peer-to-peer : quelqu’un peut tout à fait vouloir utiliser un client torrent pour partager des gros fichiers, télécharger des logiciels pour lesquels il a une licence ou autre truc legit. N’empêche que la majorité des utilisateurs utiliseraient plutôt un tel outil pour télécharger des oeuvres audiovisuelles. Ça ne vaut juste pas le coup de l’autoriser avec mise en place de contrôles en sus (sauf si la boîte est une boîte d’informatique, et encore).
Le
08/02/2019 à
17h
01
Bah, si, ça change tout.
Tu as des centaines de milliers de sites pornos à travers le monde (je balance une échelle au pif mais je crains n’être à peu près dans la bonne dimension tristement).
Sur ces sites, tu as…
Ceux qui sont complètement illégaux (en termes de contenus, de par la nature du contenu).
Ceux qui sont complètement illégaux (en termes de contenus, de par l’absence d’autorisation d’exploitation du contenu -typiquement contrefaçons de vidéos d’éditeurs, cams amateur sans respect du droit à l’image-).
Ceux qui sont complètement légaux (Marc Dorcel -enfin, je suppose qu’un éditeur X qui commercialise des vidéos a tous les droits sur son catalogue, évite les contenus illégaux et sécurise l’accès).
Et toutes les variations graduelles entre ces extrêmes.
Sans compter toutes les débilités des pauvres filles aigries sur le sexisme au bureau (c’est une chose que de coller une affiche salace en plein open space, c’en serait une autre de consulter un porno dans un bureau fermé dans son coin, pourtant la plupart des gens mettront ça sur un même plan).
Autrement dit, quand quelqu’un dit à son employeur “je consulte un site d’info” le risque qu’il commette, volontairement ou non, une infraction pénale (qui pourrait potentiellement retomber sur l’employeur au moins le temps d’identifier l’employé), ou au moins une emmerde médiatique potentielle, doit être de l’ordre de 0.5% grand grand max.
Si un employé dit au contraire “je consulte un site de cul”, le risque est plus dans les 99%.
D’où l’intérêt de bloquer par défaut tout ce qui ressemble de près ou de loin à un site de boules.
C’est clairement pas la manière idéale de faire dans un contexte de respect des libertés individuelles et vie privée, mais à mon avis, si tu demandes à des gens “tu préfères quoi, que ton boss investisse dans des primes mais bloque tout contenu pron par défaut, ou dans un service d’e-learning pour bloquer à la volée l’accès au porno illégal pour que certains puissent matter tranquille” j’ose dire que la plupart choisiront la première option.
4446 commentaires
CJUE : un site n’est pas toujours obligé de fournir un numéro de téléphone à ses futurs clients
10/07/2019
Le 11/07/2019 à 08h 32
Sauf que, navré, tu es complètement à côté de la plaque.
D’abord, la question posée concernait les relations entre professionnels et CONSOMMATEURS.
Le job dont tu parles de dev indépendant concerne TRÈS rarement ce type de relations, et bien plus couramment une relation pro-pro pour laquelle le principe est “vous êtes grands vous vous démerdez”.
Ensuite et quand bien même, personne ne met un flingue sur la tempe pour rester à côté du téléphone.
Rappel : ça fait chier aussi bien celui qui répond que celui qui appelle -> si tu prends le temps d’écrire et rendre accessible une faq ou équivalent pour traiter les cas les plus courants (genre délais de livraison, conditions contractuelles) tu vas largement limiter les appels téléphoniques aux seules questions réellement complexes, pour lesquelles de toute façon tu aurais eu (à priori) besoin d’intervenir directement.
Enfin, je rejoins les autres : sans définition claire et vérifiable de ce qu’est une communication “directe et efficace”, les sites auront beau jeu de mettre en place un truc théoriquement efficace mais concrètement moisi pour une majorité de clients (typiquement les chatbots), voire corriger en douce au dernier moment si ça gueule (combien d’utilisateurs auraient le réflexe de prendre des captures d’écran et même comme ça le site peut arguer que t’as loupé l’accès).
Dans un an, nullité des décisions administratives en cas de silence sur les algorithmes utilisés
01/07/2019
Le 02/07/2019 à 08h 34
Je vais être direct : ce commentaire est profondément débile.
Aujourd’hui les décideurs commencent tout juste vaguement à prendre conscience de la criticité de l’outil informatique (ils en ont l’intuition mais considèrent toujours que c’est un truc simple et donc “digne de dactylographeurs” pour forcer le trait, genre “il suffit de claquer des doigts les ordis font tout”)
Ubuntu n’aura plus de version 32 bits
19/06/2019
Le 24/06/2019 à 17h 36
Ubuntu revient en partie sur son passage forcé au tout 64 bits
25/06/2019
Le 24/06/2019 à 17h 19
@Vincent voilà bien un jugement d’opinion dont tu aurais pu utilement te passer :
“La semaine dernière, Canonical annonçait l’inévitable : dès la prochaine version d’Ubuntu, attendue comme d’habitude pour octobre, le système ne sera plus disponible qu’en 64 bits. Cette décision rejaillit tant sur les variantes officielles (Kubuntu, Xubuntu, etc.) que les distributions dérivées, dont Mint. Elle entraine donc de nombreux systèmes dans son sillage.Elle était cependant prévisible, car le matériel purement 32 bits est devenu très rare et des plateformes importantes ont déjà fait le grand saut ou s’y préparent activement (macOS par exemple). ”
Voilà bien un commentaire qui démontre une méconnaissance totale des enjeux.
Le nombre d’applications 32 bits employées dans le secteur publique, les entreprises privées représente très largement la majorité des applications. Les jeux ne sont que la partie émergée de l’iceberg.
Après, on peut légitimement arguer qu’une entité sérieuse aura pris des bases Debian ou Red Hat pour ses infra ou applis critiques, malgré tout Ubuntu n’est pas complètement inconnu côté desktop grâce justement à son aura de simplicité.
Canonical ne fait que se tirer une roquette à fragmentation entre les deux jambes. Quant à savoir comment ils ont pu prendre une décision aussi débile… Je n’ai pas d’opinion (j’ai lu quelques complotistes disant que MS est derrière, je ne comprends pas bien comment ils ont pu en arriver à cette conclusion XD)
Ouverture du premier référendum d’initiative partagée : ce qu’il faut savoir
13/06/2019
Le 14/06/2019 à 09h 40
Au Sénat, vents contraires autour de la taxe sur les services numériques
21/05/2019
Le 21/05/2019 à 09h 21
Pas mieux, excellent résumé. Ça brasse du vent dans tous les sens, la seule certitude c’est que ça pue la merde…
Impression 3D : au ministère de la Culture, une charte pour tracer l’ensemble des reproductions
20/05/2019
Le 20/05/2019 à 15h 38
Entre nous, l’autre aussi ça peut en soulever… Par le biais du droit à l’image. " />
(Après j’avoue, à part un américain profond je vois pas qui imprimerait une réplique réaliste de Trump pour l’exposer publiquement. En revanche en version nain de jardin… :sifflote:)
Tesla enchaîne les mauvaises nouvelles : incendies, accidents, départs…
17/05/2019
Le 20/05/2019 à 00h 19
@inextenza @OlivierJ par ailleurs je pense qu’on ne parlait pas exactement de la même chose en fait.
Vous vous parliez de la vitesse moyenne sur un trajet vélo taff.
Moi je parlais de la vitesse moyenne qu’une personne peut maintenir plusieurs dizaines de minutes sur plat sans facteur extérieur (salté de piétons -naaaaan, j’déconne… Ce sont les voitures qui occupent mon bitume que j’ai du mal à supporter " />).
C’est sans doute pour ça que nous avons l’impression d’être en désaccord net.
Si ça peut vous rassurer, dans mes commentaires précédents (y compris ceux juste au-dessus) je parlais toujours de la vitesse moyenne que je maintenais entre deux “obstacles”.
Après avoir pris le temps de refaire le calcul avec la distance exacte et mon temps moyen “usuel” (à savoir 22mn pour 7 km) on tombe tout à fait dans les vitesses moyennes de “vélotaff” que vous indiquiez (flemme de faire le calcul exact mais on doit tomber autour de 21 km/h ?). Rarissime de pas se prendre au moins deux ou trois feux… XD
Même mon record absolu en mode bourrin/beautemps/personne/feu verts ou bronzés ahem devait être autour de 18mn, et vu le différentiel d’effort pour le temps gagné ça n’en valait pas la peine -sauf pour l’aspect cardio bien sûr- XD).
A côté de ça en mode “full piste cyclable sportif sur le canal (tout plat, tout chouette XD) ma moyenne “réelle” se situait plutôt autour de 28 km/h pour une balade d’une heure (mais effectivement là je me douchais en rentrant on était pas du tout dans l’optique d’arriver présentable à la fin du trajet XD). ;)
(Et j’arrête de poster parce que sans déconner à 2h du matin, tout seul, j’ai l’impression d’être un méchant spammeur XD) (Puis dormir c’est pas mal aussi parfois -du coup bonjour à tous ;))
Le 19/05/2019 à 23h 54
“Il faut accepter de reprendre du temps”…
C’est tellement vrai, et ça n’arrivera tellement jamais tristement…
Le 19/05/2019 à 23h 49
On n’a pas la même expérience du vélotaff. ;)
Après c’est sûr que si ton taff implique de trimballer de l’équipement spécifique, ce n’est plus le même enjeu. ;) Mais à part un ordi portable (et si c’est vraiment sur un métier de mobilité tu prends pas un 15 pouces de 2 Kg ^^) je pense pas qu’une majorité de gens est concernée (je vois essentiellement les artisans type plombier/électricien / homme de ménage pour lesquels de toute façon rien que du matos type escabeau donne un tout autre angle à la question de la mobilité douce XD).
Le 19/05/2019 à 23h 22
Je me suis sans doute mal exprimé.
Considérant par ailleurs que le stockage de cartes détaillées, s’agissant de formats vectoriels, ne saurait prendre une place suffisante pour représenter une contrainte technique sérieuse à l’heure où un To de stockage coûte quelques dizaines d’euros pour un particulier (donc j’imagine pas les prix en mise à l’échelle pour un industriel), où la communication sans-fil permet des MAJs de même plusieurs centaines de Mo en quelques minutes max…
EDIT : my gode… “Considérant”, “considérant”… Help, mon passé juridique refait surface, je me fais entraîner par le côté obscur du commentateur internet… XD
Le 19/05/2019 à 23h 15
Bah non je n’exagère pas. ;)
C’est juste que “bon vélo” recouvre plusieurs réalités.
Pour toi et pour moi, c’est probablement un budget de quelques centaines d’euros. Et effectivement avec ce genre de vélos, et pour un trajet quotidien de moins de 15 km aller, tu vas jamais développer plus qu’une capacité d’entretien de 30 à 33 km/h sur du plat avec un bitume correct.
Je connais pour autant une bonne poignée de personnes, de la vraie vie, de mon entourage proche, qui te tapent du 40 en entretien sur du plat sans forcer.
C’est juste pas le même engagement, ni en matos (vélo à 1500 grand mini, moyenne 2000+ boules -et je parle pas d’un vélo électrique mais bien à l’huile de genoux-) ni en effort (ces gus là font des balades de 40km plusieurs fois par semaine).
Et ils arrivent avec moins de transpiration que moi avec mes 30. XD
(La transpiration traduit un effort supérieur à ce que tu as l’habitude de faire, et varie aussi selon plein d’autres paramètres dont ta capacité cardio et ton taux de graisse. Moi je suis en mode flaque, eux sont en mode bois sec. Et ben je vois bien la différence, mon collègue actuel ne présente absolument pas d’inconvénient de type boule puante et pourtant il tape ses 25 km tous les matins pour venir en vélo XD)
Cela signifie t - il que tout le monde devrait avoir ce niveau ? Certainement pas. Je dis simplement que l’on a tendance à sous-estimer la capacité humaine à se développer,
Et que quand la plupart des facteurs sont favorables (état de la route, “platitude” du trajet si j’ose dire, budget, état actuel de santé sans soucis particuliers) c’est largement rentable de faire la transition.
Le 17/05/2019 à 13h 54
Désolé je re-quote parce qu’il y a un autre point dans ton commentaire que je ne perçois que maintenant : le vélo.
Nous avons tendance à sous-estimer le vélo comme moyen de transport multi-modal et multi-usages, parce qu’effectivement, la plupart des gens ne connaissent que le vélo “basique”.
S’y ajoutent effectivement des contraintes plus fortes qu’avec une voiture, notamment sur la dépendance à la qualité des routes (à moins d’être jeune, dynamique et avec un bon cross " />) et leur disponibilité pour la locomotion douce (le vrai gros problème : très peu de routes hors agglomérations sont pratiquables en vélo, même à l’arrache, sauf à vraiment vouloir risquer sa vie).
Pour autant, il suffit de s’intéresser à ce qui existe un peu partout pour constater que seule la contrainte “bitume” reste réellement prégnante.
Pour l’effort lié à la durée ou aux pentes, les moteurs à assistance électrique font très bien le taff à moins d’avoir des pentes types piste de ski sur de longues distances.
Pour les usages nécessitant une capacité de traîne ou de charge, coupler le moteur susnommé à un modèle de vélo ayant un cargo embarqué, ou en accrochant un équipement secondaire à l’arrière, est tout à fait faisable.
Pour le simple transport de personnes (genre boulot), si t’as déjà un vélo électrique bah t’es paré, et sinon techniquement un bon vélo classique te permet après quelques semaines de pratiques de taper du 40 km/h à l’aise sur du plat. Même avec un vélo basique type Deca tu peux facilement maintenir du 30 à l’heure.
Il ne faut pas sous-estimer la capacité d’adaptation du corps humain. :)
En vrai, pour une large majorité de gens au quotidien, même les familles, un ou des vélos représentent une solution largement pratiquable en théorie : le seul truc qui manque vraiment c’est leur assurer un passage sécurisé sur les grandes interconnexions, et l’espace pour stocker les vélos (plus problématique en ville qu’en campagne pour le coup ;)). Et au-delà de ça…
Le 17/05/2019 à 13h 43
Mon père partage ce pessimisme (certains diraient “réalisme” " />), s’appuyant sur son expérience relative aux rames autonomes de transport urbain disséminées à travers le monde.
Son opinion était en gros “quand on voit déjà la méga galère que c’est de vraiment sécuriser le transport de passagers dans un environnement hyper contraint (puisque tunnel de métro), je vois pas comment ça pourrait arriver en environnement ouvert avec des millions de variations différentes”.
Pour autant, je prenais son avis avec un grain de sel car l’intelligence artificielle et tout l’écosystème autour (capteurs notamment) n’est pas son coeur de métier, donc je me disais que lui comme moi n’avions pas nécessairement le bagage requis pour se projeter…
Du coup merci du partage. :)
Le 17/05/2019 à 13h 38
Je ne connaissais pas cette nuance effectivement. C’est intéressant, mais si je comprends bien il y a tout de même une limite brute non ?
Ou dois-je comprendre que si tout le monde roule à 130 sur une voie limitée à 90, tu es en tort si tu ne roules pas toi aussi à 130 ?
Le 17/05/2019 à 13h 36
Tu as tout à fait raison, le rail ne pourra jamais être aussi efficace que la roue pour le point à point.
En revanche, cette problématique est totalement orthogonale de la double question “véhicule électrique” - dans l’état actuel fumisterie environnementale- et “véhicule autonome” dont la seule valeur ajoutée potentielle réelle -et encore faudra bien calculer le coût de production et possession total du point de vue sociétal-, est d’éviter de payer des humains avec les charges qui vont avec comme actuellement avec les moyens “classiques” de locomotion.
Je dis réelle parce que le gain d’efficacité hypothétique sur la gestion des flux par un système totalement “à la demande” réclame une transformation de l’infrastructure, une masse de véhicules disponibles et un changement d’habitudes telle que ça n’arrivera pas avant que nos problèmes structurels en terme d’environnement et d’épuisement des ressources finies nous rattrape.
Le 17/05/2019 à 11h 05
Ça m’a fait tilter aussi : “Autopilot activé depuis 10 sec”, la voiture aurait dû évidemment ralentir…
À quoi ça sert d’avoir un “autopilot” si celui ci n’est même pas foutu d’exploiter des informations stables telles que les limites de vitesse selon le type de voie ?
Enfin bon de toute façon la voiture autonome a toujours été et sera toujours une vaste blague à base de “oui la voiture roule toute seule mais faut rester concentré sur la route et les mains sur le volant”.
Autrement dit le conducteur doit “conduire sans conduire”.
Du coup, où est l’intérêt, à part être MOINS en sécurité parce qu’on s’emmerde ferme ?
Le concept de voiture autonome n’a de sens que si la conduite est RÉELLEMENT autonome.
Ça n’arrivera pas avant au moins 30 ans, et encore, si le concept est toujours viable dans le contexte d’alors en termes de société et de ressources.
Le truc drôle, c’est que si tout ce fric avait été plutôt investi dans le ferroviaire, ils auraient pu largement améliorer soit l’interconnexion régionale soit au sein d’une ou plusieurs grandes villes. Mais il est vrai que ç’aurait été autrement plus compliqué de se positionner en tant que nouvel acteur face à des géants bien établis. :)
Projet de loi Mobilités : panorama des amendements liés aux nouvelles technologies
15/05/2019
Le 15/05/2019 à 14h 39
Vous connaîtriez un fabricant de caméras embarquées côté en Bourse ? Vu le projet débile à base de “filmons tout tout le temps mais ayez confiance l’usage sera raisonné” les ventes de matos devraient faire un bond prodigieux… " />
MDS : encore une importante faille dans les processeurs Intel, les premiers correctifs sont là
15/05/2019
Le 15/05/2019 à 14h 34
Très juste, j’ai tendance à oublier que Intel traîne la même archi depuis plus de 10 ans… Faut dire, ils font tellement d’efforts pour faire croire que leur nouvelle gen est révolutionnaire à chaque fois !! XD
On peut également noter qu’il y a certainement aussi un effet d’opportunité similaire à Windows/Linux, enfin je le suppose : tant qu’à bosser pour essayer de trouver des failles, autant se concentrer sur celui qui a le plus de parts de marché. :)
Le 15/05/2019 à 09h 05
Autant je suis d’accord avec toi qu’au niveau des datacenters le risque est faible, autant niveau particuliers et même dans une certaine mesure les entreprises (toutes n’ont pas une infra info rigoureuse) le risque est réel principalement par l’effet de masse.
Sinon, c’est marrant, de mon oeil de néophyte, ça donne l’impression qu’en fait Intel était plus performant depuis des années parce qu’ils ont un poil survolé les tests de robustesse…
Je note cependant que, “bizarrement”, aucun site informatique n’a refait de tests comparatifs de processeurs (à l’époque de Meltdown déjà très peu de magazines avaient fait l’effort d’évoquer le sujet).
Prenons en compte également les améliorations de microcode d’AMD…
Serais-je le seul à apprécier si un magazine “au hasard” se permettait de refaire des comparatifs sous Linux (de préférence) et Windows (au pire) ? " />
Emmanuel Macron annonce un fonds de 225 millions pour l’industrie culturelle, le cinéma prioritaire
14/05/2019
Le 14/05/2019 à 14h 22
Nous ne comprenons pas la même chose. Moi je comprenais qu’il s’agissait d’une enveloppe répétable année après année, pas d’un one-shot. Dans ce dernier cas effectivement je te rejoins.
Le 14/05/2019 à 14h 19
Toujours aussi lamentables tes tentatives de troll.
D’une, l’agriculture est réellement un secteur en difficulté contrairement à la culture.
De deux, l’agriculture est réellement un secteur réclamant par essence des moyens (infrastructure, équipement, terres) sans commune mesure avec ce qui est nécessaire pour créer et diffuser des oeuvres (à fortiori avec les moyens de création numérique).
De trois, l’agriculture est un secteur réellement indispensable à la société (en termes de culture, rien qu’avec tout ce qui est dans le domaine public, tu as de quoi occuper h24 ton esprit pour le restant de tes jours, rien qu’avec les grands classiques français et européens en termes de littérature/musique).
De quatre, l’agriculture n’essaie pas de soutirer des sous de manière totalement illégitime par rapport à la culture (on reparle de la taxe copie privée avec les DRMs en pendant ? On reparle des professionnels qui subissent avec une usine à gaz digne des 12 travaux pour se faire rembourser ? On reparle du lobby qui ruine la liberté d’expression pour sauvegarder son modèle obsolète ?)
Par égard pour toi nous éviterons également de parler des aléas de l’agriculture au quotidien, notamment avec l’évolution du climat, ou de la qualité de vie au quotidien également. :)
Le 14/05/2019 à 09h 17
C’est vrai que c’est pas comme si ces 225 millions auraient pu financer à la louche soit l’amélioration d’hôpitaux (ravalement, équipement, personnel sup), l’éducation (on doit bien pouvoir payer quelques milliers d’enseignants avec ça, charges comprises) ou au pire les prisons…
Avant, je méprisais l’industrie culturelle pour ce lobby tout azimut afin de sucer autant d’argent que possible au mépris de toute logique et de tout respect du bien commun.
Mais ça c’était avant…
Aujourd’hui c’est officiel : je les exècre. " /> " />" />" />" />" />
Droit voisin de la presse : ligne par ligne, la proposition de loi votée par les députés
13/05/2019
Le 13/05/2019 à 14h 37
Enculade à coup de graviers acérés comme prévu.
Aussi bien pour les journalistes (“laissons la négociation collective se faire” ben voyons, clairement les journalistes ont toujours été en position suffisamment forte pour négocier un truc fair " />) que pour les internautes en général, car, à moins que vous ne l’ayez pas rappelé par souci de concision, je ne vois plus ici de limitation du champ de rémunération à des entités dépassant un certain chiffre d’affaires ou un certain nombre d’années d’existence ?
Je note aussi avec plaisir (ou pas) le fait qu’il soit prévu de protéger les “mesures techniques de protection”, sans qu’aucune définition (en tout cas selon ce qui est reporté dans l’article) vienne en préciser les contours.
Non plus qu’une quelconque obligation de rigueur minimum dans la mise en oeuvre de ces protections : si je peux accéder au contenu d’un site juste en virant la popup de merde qui me dit que je dois m’abonner pour accéder, faut-il considérer ce popup comme une mesure de protection et donc ma suppression comme une violation pénalement repréhensible ?
Si le site met en gros “contenu réservé aux abonnés” mais qu’il ne configure pas proprement son htaccess et robotstxt et qu’un moteur vient agréger le contenu, un juge sera-t-il suffisamment compétent pour renvoyer l’éditeur à son poteau en mode “apprend à gérer un site avant de chouiner” ?
Windows 10 intégrera un noyau Linux 4.19, WSL 2 et un Terminal repensé
07/05/2019
Le 10/05/2019 à 10h 30
Quel troll de bas de gamme, tu nous as habitués à mieux…
Puisque nous sommes en mode 3615 mylife…
Je suis passé de Windows à Linux la première fois que Windows a irrémédiablement crashé. J’étais en mode agonie “j’ai tout perdu”.
Un ami m’a parlé de Knoppix : j’ai téléchargé et gravé sur le pc de mon frère, lancé, et admiré : démarrage automatique, système complet avec environnement et réseau sans aucune action utilisateur, un clic pour monter automatiquement les partitions et les exposer en partage Samba -> données sauvegardées.
Ce jour là, j’ai décidé d’apprendre les bases de l’informatique et de l’admin système (notamment le partitionnement parce qu’il faut pas déconner). Depuis ce jour, les seuls plantages conséquents que j’ai eu avec Linux ayant entraîné de la perte de données se comptent sur les doigts d’une main, et résultaient de l’usage de softs en alpha qui annonçaient la couleur (notamment l’équivalent linux de Supercopier à ses débuts).
En quoi Linux est mieux que Windows depuis 20 ans ?
Et quand tu mets à jour, tu peux toujours utiliser ton pc tranquillou contrairement à cette merde de Windows qui te bloque sur un écran pour x minutes.
Et quand il y a un problème, dans 99% des cas, le système te donne une information humainement lisible : même si toi tu ne comprends pas, tu as de bonnes chances de trouver une explication sur le net, ou au pire trouver quelqu’un qui saura comprendre. À comparer avec les codes d’erreur imbitables de Windows.
D’ailleurs, la ligne de commande, parlons-en : sous réserve de soucis matériels (confer mon point plus bas) ou du besoin d’installer des logiciels non mainstream, tu peux complètement, je dis bien, COMPLÈTEMENT, te passer de la ligne de commande depuis 2010.
“Mais, dans ce cas, pourquoi donc voit-on encore de la ligne de commande partout ?”
Très simple.
Qu’il s’agisse de faire de la gestion de fichiers de masse par caractéristiques (“chopes tous les mp3 et fous les sur mon disque externe”, “vire moi toutes les versions de ce document qui ont plus d’un mois”, “trouve moi le document que j’ai commancé à écrire mais dont j’ignore et le nom exact et le type de fichier”), de l’administration système basique (“montre-moi quels sont les fucking sous-répertoires qui prennent le plus de place”, “dis-moi quelles extensions sont dispo pour mon logiciel”), ou de l’administration avancée / du dev (“trouve-moi tous les fichiers de configuration ayant telle clé”, “modifie mot-clé A par B mais uniquement dans les lignes correspondant à tel motif, dans tel ensemble de fichiers”)…
Absolument AUCUN outil ne pourra jamais fournir à la fois la rapidité et l’adaptabilité de l’intelligence humaine à qui tu fournit un langage et des opérations de base à combiner.
La ligne de commande, ce n’est pas une plaie, c’est une bénédiction, un investissement 1000 fois rentable. Faut juste accepter de brancher son cerveau pendant le temps nécessaire pour assimiler les commandes utiles pour son usage, et apprendre comment on peut les combiner.
En fait, le seul vrai prix à payer pour avoir une expérience informatique sereine avec Linux c’est…
Peut-être que pour certains c’est bloquant, pour moi ça n’a jamais été un problème : de toute façon comme ça ton budget est moins violent (surtout pour proc/carte graphique / réseau), et pour les périphériques type imprimante ou casque grosso modo il n’y a pas d’innovation réellement impressionnante depuis des années.
Le 10/05/2019 à 09h 57
GG " />
SSHFS-Win : accédez au contenu d’une machine distante depuis l’explorateur de fichiers Windows
10/05/2019
Le 10/05/2019 à 08h 31
J’ai la flemme de faire la même sur tous vos articles récents de Nxi et IH (comme l’installation à distance ou la présentation de Chocolatey) donc j’en fais un global ici.
MEEEEERRRCIIIIIIIIIIIIII (oui je gueule c’est pour être sûr que vous entendez " />)
Sérieusement, merci beaucoup pour ces tutos clairs et complets d’aide à l’administration de machines Windows/Linux, ça m’a remotivé à acheter un Pi pour mettre les mains dans le cambouis.
" />
Sudo sous Windows : comment devenir simplement administrateur en ligne de commandes
07/05/2019
Le 08/05/2019 à 08h 32
+1
Justice : un marché public ne peut favoriser un logiciel propriétaire
02/05/2019
Le 02/05/2019 à 23h 22
+1000 Les données sont et seront toujours le nerf de la guerre.
A force de se faire enfler, beaucoup ont compris qu’il valait mieux un logiciel “good enough” mais qui t’offre une porte de sortie (voire d’entrée ^^) simple et efficace pour tes données, qu’un logiciel top moumoute qui t’obligera à te couper une couille et t’arracher les dents d’or pour espérer en sortir… S’il en est encore temps soit dit en passant…
Et effectivement, de ce point de vue, le logiciel libre, même le plus mal codé qui soit, te fournit intrinsèquement une porte de sortie garantie dans 99% des cas (je ne vois guère que le cas d’un logiciel libre qui utiliserait exclusivement un format propriétaire pour l’enregistrement des données, mais outre que je doute que ça existe en vrai, à ce niveau là, c’est demander à se faire mal que de choisir un truc pareil).
Après, relativisons tout de même : la discussion a eu tendance à se concentrer sur les applications interagissant avec des fichiers, cela dit une bonne partie (et de plus en plus, notamment parmi les applis critiques) s’appuient sur des bases de données. Ca veut pas dire qu’une migration serait facile, m’enfin, c’est normalement faisable dans quasi toutes les situations (même si parfois à coût déraisonnable).
Le 02/05/2019 à 23h 18
Bah non ce n’est pas totalement idiot, bien au contraire, c’est très intelligent.
Ca oblige à recoucher sur le papier les caractéristiques du produit/service requis.
Quand bien même la solution actuellement utilisée est propriétaire, quand bien même tout le monde sait que là tout de suite le choix le plus raisonnable sera de renouveler la licence (= personne ne pourrait fournir une solution équivalente à l’instant T) ça permet…
Quant à ton point sur les logiciels libres, bah il est out aussi.
Je suis tout à fait d’accord que dans la réalité, “libre” ne signifie pas “easy peasy à adapter/reprendre” et que donc un code source libre n’apporte pas, en vrai, une garantie intrinsèquement forte de robustesse et de pérennité…
Malgré tout, le simple fait que le code soit librement récupérable et exploitable rend effectivement une telle solution parfaitement exploitable par tout un chacun.
Ex : l’administration a misé sur un mauvais cheval : solution libre abandonnée parce que l’éditeur a coulé (dommage XD). Eh bah, au moins, ils savent que n’importe qui de compétent pourra assurer la migration des données vers une nouvelle technologie. Ce sera pas forcément (voire forcément pas) simple selon les points de départ et d’arrivée et les moyens donnés aux équipes, mais AU MOINS tu as la garantie d’avoir le code source, le vrai code source, et tout le code source, avec éventuellement une doc potable.
Un éditeur propriétaire ? Paye tes années de galère à attendre la liquidation totale, à négocier les droits sur le logiciel pour en devenir pleinement propriétaire, puis à pleurer ta race à chercher les supports sur lesquels le source est stocké (j’admets, ce dernier point est plus discutable, on peut considérer qu’un éditeur logiciel aura un minimum de procédure de sauvegarde de son fonds de commerce… Néanmoins, les faits divers de type “merde on a tout paumé” reviennent de temps en temps).
Ex 2 : l’administration utilise un logiciel à la base conçu pour un besoin “standard”. Or au fil des mois son besoin à elle s’éloigne de la vision de l’éditeur d’origine.
-> Logiciel propriétaire : pas le choix, il faut son accord : au mieux, ça peut intéresser d’autres clients, tu paieras un prix presque honnête, mais du coup tu vas poireauter un bon moment (puisqu’il faudra réfléchir à une conception de la fonctionnalité qui plaise à tous). Le cas le plus courant, ton besoin est spécifique, ton instance était déjà customisée, tu vas raquer sans même avoir de prise sur le délai de livraison. Le pire des cas ? Ton besoin n’a aucun intérêt pour l’éditeur et peu importe le prix il n’a juste pas les moyens ou l’envie de s’emmerder à gérer ça.
-> Logiciel libre : au mieux, tu as choisi une techno solide et populaire : tu auras l’embarras du choix. Au cas le plus courant, tu auras quelques boîtes qui maîtrisent, ça te laisse toujours une marge de négociation. Au pire (plus) personne ne connaît, tu peux soit décider de développer l’expertise en interne ou mettre en place un programme de support dédié avec un de tes partenaires de presta historiques.
NOTE : les deux exemples se sont déjà produits et se reproduiront de nombreuses fois.
Les éditeurs ont bien commencé à réaliser à quel point ils avaient poussé le bouchon trop loin, et beaucoup ont peu à peu assoupli leur politique de PI en mettant en place des licences “permissives” sous lesquelles tu peux modifier toi-même le produit. Mais c’est trop peu, trop tard, quand les mêmes éditeurs ont joui pendant 20 ans à claquer des hausses de prix se traduisant par une inflation budgétaire se comptant en dizaines (voire centaines) de pourcent pour les administrations.
Pas pour rien qu’ils veulent nous vendre du cloud à toutes les sauces d’ailleurs, la nouvelle prison dorée. Fort heureusement le traumatisme est encore assez présent pour que beaucoup de décideurs se méfient…
Le créateur de Minecraft n’est pas le bienvenu aux 10 ans du jeu
30/04/2019
Le 30/04/2019 à 11h 17
Au-delà du fait qu’à ta place, je réviserais mon vocabulaire (ou je changerais de “boulangerie”, au choix)…
Oui, clairement il est profondément DÉBILE d’ignorer complètement quelqu’un à cause d’un trait de caractère ou de comportement. Fût-ce un trait avéré (reste à prouver ici), fût-ce un que l’on considère profondément immoral (comme dans ton exemple).
En premier lieu, quand tu creuses un peu l’histoires des personnes ayant marqué leur temps (génies scientifiques, artistiques ou littéraires par exemple), tu trouves souvent des comportements repréhensibles. Les déséquilibrés (au sens le plus large) sont tout autant utiles à la société que des gens “équilibrés”, bien pensants etc.
En deuxième lieu, même pour une personne normale, il est nettement plus efficace en termes de société d’accepter les personnes, quitte à ajouter quelques contraintes spécifiques par rapport au trait suscité, que de les rejeter complètement.
Les rejeter implique de les cloisonner et les enfermer dans cette image, et donc de les pousser à persévérer dans le comportement. Les accepter implique au contraire de leur montrer que l’intégration reste possible, et va les inciter (normalement du moins) à fournir les efforts requis de leur part.
Par exemple, pour reprendre ton boucher qui fait du pain que tu penses pédophile (allez, mettons même que c’est avéré prouvé etc), il n’y aurait AUCUNE FUCKING RAISON de ne pas lui acheter du pain, ou de ne pas lui dire bonjour. Aucune raison non plus de lui interdire de parler ou d’approcher tes enfants. Simplement, jamais tu les laisses seuls avec lui à priori (je dis à priori parce la réalité serait même plus nuancée).
Pourquoi croyez vous qu’il y a en France (et dans à peu près tout pays civilisé) la notion de “purge” ? Tu commets un délit/crime, tu purges ta peine, après tu es “quitte” (éventuellement avec un suivi ou une aide à la réinsertion, et une trace dans le dossier pour les cas sérieux). Bah oui, parce qu’il est sociétalement plus efficace d’avoir ce système (pour plein de raisons que je ne détaillerais pas, le commentaire n’étant pas le format indiqué pour une thèse) que d’avoir une vision binaire “t’as commis un crime t’es une sous-merde à vie” (raison pour laquelle le système américain où des gens peuvent signaler des “pédophiles” -parfois même sans condamnation avérée - profondément inique et débile).
Sauf que si tout un chacun se comporte comme un gros crevard égocentrique et agit au quotidien avec cette vision binaire, bah forcément le système se grippe beaucoup plus facilement.
Droit voisin des éditeurs et agences de presse : la boite de Pandore à l’Assemblée nationale
29/04/2019
Le 29/04/2019 à 12h 04
" /> Désolé pas plus constructif pour le moment.
Bureau à distance sous Windows 10 : comment l’activer et l’utiliser ?
23/04/2019
Le 25/04/2019 à 11h 27
Je comprends ton point, mais je ne peux pas décemment considérer comme pleinement sécurisé un système qui, par défaut, entre autres aberrations encore valides en 2019, te laisse accéder aux fichiers d’un autre utilisateur.
Et je ne parle pas des aberrations “systèmes” de sécurité en termes d’élévation de privilèges où il a fallu attendre Vista pour en avoir les premiers balbutiements. Où des erreurs qui sont encore aujourd’hui complètement absconses, pour ne pas dire “cryptiques on purpose pour vendre du support”.
Windows a tout simplement conçu par des mecs qui codent d’abord et réfléchissent après pendant des années, dirigé par des gens dont l’objectif premier n’est pas la qualité du produit mais l’enfermement de l’utilisateur. C’est cool qu’on ait enfin un niveau de qualité acceptable, et qu’on puisse enfin également profiter d’un outillage d’adminsys / dev robuste, m’enfin, il aura fallu attendre 2017 (ou 2018 ? Je ne sais plus) pour avoir une user/dev expérience comparable à ce qu’on a sous Linux depuis au moins 2000.
Après c’est sûr il faut accepter de passer du temps à apprendre au départ, mais l’investissement est tellement rentabilisé derrière… :)
Et, une fois encore, en entreprise, tu peux toujours avoir la chance de disposer d’un admin sys ou d’un dev compétents qui vont pallier tout ce qui ne va pas. Tu as également une config de base différente du système, et je suppose que tu peux payer pour avoir plein d’outils d’administration en plus pour te faciliter la vie…
Tout en restant soumis aux aléas de changement de licence, changement de code, etc…
Les systèmes Linux ne sont pas non plus des silver bullet parce que bloquer une version de système (ou mettre en place des prises à distance sécurisées) requiert des bonnes compétences d’administration, mais au moins tu as le choix des armes : outils, prestataires (ou apprentissage interne), délais…
Et s’il faut développer du code pour pallier un manque, pas de soucis de licence non plus (enfin, moindre dirons-nous car il y a tout de même des cas limites).
Le 24/04/2019 à 12h 30
D’une part, ce n’est pas parce que Windows est largement utilisé en entreprise que c’est une bonne idée pour autant (plus généralement, on ne peut jamais prendre exemple sur un usage de masse pour légitimer une idée ou une action, sauf à vouloir rapidement arriver à un point Godwin).
D’autre part, je parlais en tant que particulier : confier ses données à un système qui a mis 20 ans à obtenir un niveau à peu près acceptable de sécurité et qui se trouve encore des années derrière Linux en termes de maintenance (Il a fallu attendre Windows 8 pour enfin avoir un système exploitable post-install sans galérer à la main pour les pilotes réseau/son/graphique. En 2019, on a encore le concept du “j’installe les mises à jour sans prévenir quand tu éteins/allume l’ordi”) et d’ergonomie (plein de trucs de base toujours manquants, les bureaux virtuels arrivés bien trop tard pour être encore utiles maintenant que le multi-écran est démocratisé).
“Juste à titre d’exemple bref !”
Le 23/04/2019 à 18h 01
Je ne maîtrise certes pas les arcanes de l’administration Windows (entre autres parce que je ne comprends pas que l’on puisse même envisager de faire autre chose que jouer sur ce système -en tout cas en tant que particulier éclairé) je dis simplement que, quelque soit la manière dont on le prend, un accès à distance c’est un risque supplémentaire à gérer.
PS : Le tutoiement est de convention sur NXI après peu m’importe ;)
Le 23/04/2019 à 15h 24
Je te réponds “théoriquement” en ayant rapidement relu la page de tarification.
Tu payes quoiqu’il arrive par mois en fonction de la quantité de données stockées.
Ensuite tu as un quota mensuel de 10 Go que tu peux récupérer, mais c’est l’exception. Le principe reste que tu es payé selon un savant calcul qui combine à la fois le “numéro” de la demande (tu es ponctionné toutes les 1000 demandes et je suppose que une demande = un fichier téléchargé), la vitesse de la demande (rapide/normal/lent) et le poids du fichier téléchargé.
Et je suppose également que les calculs sont faits de manière consolidée une fois par mois mais là c’est totalement sans source que je dis ça… :)
En revanche, ceci pourrait peut-être t’aider…https://calculator.s3.amazonaws.com/index.html (pas pu tester bloqué pour moi)
Le 23/04/2019 à 15h 05
[QUOTE]“Comme pour le chiffrement Bitlocker, on peut regretter ce choix puisqu’elle peut avoir tout son intérêt pour le grand public, notamment dans le cadre d’un dépannage informatique. Ils doivent donc se contenter de l’Assistance rapide.” [/QUOTE]
Compte tenu de ces aspects, le ratio “risque” (de déployer la fonctionnalité sur des centaines de millions de postes, même si désactivée par défaut) / “bénéfice” (fonctionnalité malgré tout de niche, avec des dizaines de solutions concurrentes plus simples et plus connues) d’en faire une fonctionnalité de base n’est pas terrible.
Alors que dans un contexte professionnel (entreprise), on peut supposer qu’il y aura un administrateur système chargé d’une part de sécuriser les tentatives d’accès (firewall + clé + log) d’autre part de rendre l’exploitation intuitive pour les utilisateurs (activation et configuration pour eux de leur poste).
Bref, c’est complètement logique (et je m’étonne moi-même de dire ça d’un choix de Microsoft sur une segmentation fonctionnelle de leur offre d’habitude je fais parti des plus virulents " />)
Les Ryzen en 7 nm seront-ils compatibles avec les premières cartes mères AM4 ?
16/04/2019
Le 19/04/2019 à 15h 28
Bravo pour le procès d’intention ! Du grand journalisme… Ou pas en fait.
Récap ?
UN message d’UN utilisateur pour UN constructeur sur CERTAINS modèles de cartes mères
—->
“BOUH SI ÇA SE TROUVE PLEIN DE CONSTRUCTEURS VONT POUSSER À L’ACHAT DE NOUVELLES CARTES MÈRES !”
“BOUH AMD ILS RESPECTENT PAS LEUR ENGAGEMENT !”
Ah bon ?
AMD est responsable de la conception du processeur et des chipsets éventuellement de l’agencement des cartes mères et des recommendations de dimensionnement. Aucunement de l’intégration en tant que telle notamment sur le dimensionnement effectif et la qualité des matériaux.
Ou alors, SOURCE le point.
Non seulement nous n’avons aucune obligation de te croire sur parole, mais j’oserais dire nous avons le devoir de douter.
Tu montes en épingle un sujet qui, pour le moment, brille par son flou si j’ose dire, SANS MÊME CHERCHER À CREUSER : ton actualité, en termes d’information pure, n’importe absolument rien de plus par rapport à ce qu’on peut trouver ailleurs. J’en ai appris plus sur le sujet en lisant les commentaires de news sur Cowcotland.
Ça craint.
Je rejoins le point précédent : si tu prétends qu’AMD aurait une responsabilité directe sur la manière dont des tiers indépendants mettent en oeuvre une incompatibilité matérielle, cela veut dire en creux qu’AMD a failli d’une manière ou d’une autre dans la définition et la communication de ses spécifications à respecter.
Source ? 0. Argumentation ? Nada. J’ai l’impression que tu en sais autant que moi, et ce n’est pas bon signe.
Si le cas était avéré mais que MSI est seul à adopter cette politique (donc il n’y a bien aucun problème ni aucune erreur de la part d’AMD), eh bien ils vont juste se tirer une roquette entre les jambes, tant pis pour eux et tant mieux pour les autres.
S’il devait en revanche s’avérer que cette limitation artificielle est décidée par l’ensemble des fabricants de cartes mère, AMD n’en sera certainement pas ravi : leur impératif pour le moment est de gagner des parts de marché sur tous les fronts, et tout frein leur causera du tort. Pour autant, ils n’ont aucun lien de subordination ou de domination sur les fabricants de carte mère.
Et, pour rappel, ils n’ont pas non plus les moyens financiers de proposer (voire imposer) des conditions contractuelles, contrairement à Intel.
Quant à venir les tacler en mode “vous pourrissez mon image vous êtes des cupides”, cela n’aura aucun impact vis-à-vis du grand public (qui s’en fout comme de l’an 40, ne connaît probablement même pas la distinction) ni vis-à-vis des grandes entités (pour qui seul compte le ratio investissement/bénéfices, et se fout royalement des relations entre ses fournisseurs, tout comme tu te fous de la relation entre le commerce ou tu achètes tes encres d’imprimante et le contrat de fourniture entre ledit commerce et le fabricant).
Pire, cela pourrait mettre en exergue le relatif manque de poids de négociation dont dispose AMD et/ou dégrader ses relations avec les constructeurs, à une période charnière où ces derniers commencent timidement à réintégrer du matos AMD dans leurs machines.
Bref, cet article est, désolé de n’avoir pas de mot plus doux, complètement inepte.
Digne de Clubic, et ça m’indigne.
(Je ne parle même pas de l’autre qui fait des comparaisons foireuses entre AMD et Intel qu’un collégion n’aurait pas osé et qui remet sur le tapis une soi-disant responsabilité d’AMD qu’il n’assumerait pas sans le moindre argument).
Autant ne rien écrire si c’est pour survoler (voire ignorer) le fond.
[Interview] L’hébergeur, l’article 13 et la censure
21/03/2019
Le 21/03/2019 à 11h 35
Bonjour @l’équipe merci pour cette interview.
En revanche, grosse frustration de ma part : comment fait-on pour retrouver les articles connexes ???
Je ne sais pas depuis quand ça a disparu (sans doute longtemps) mais avant dans mes souvenirs on avait ce type de suggestions.
Je suis en train de repréparer un mail d’information, et je souhaiterais m’appuyer sur les articles de fond que vous avez produit ces dernières semaines…
Iliad (Free) a perdu 347 000 clients, le FTTH explose, le réseau « prêt pour la 5G »
19/03/2019
Le 20/03/2019 à 00h 35
Je suis en complet désaccord avec toi.
Ils veulent le beurre l’argent du beurre et le cul de la crémière, sans comprendre (ou en faisant mine de ne pas) qu’il faut déjà chercher la crémière, acheter la vache, tirer le lait et le mettre en baratte.
Le 19/03/2019 à 15h 59
Bref, comme d’hab les actionnaires sont des boulets.
-> Conversion continue des abonnés mobiles du forfait le moins cher au forfait le plus élevé
À moins que la plupart des gens se soient convertis pour éviter le hors forfait et/ou que le hors forfait soit nettement plus rentable en moyenne que les abos fixes, Free Mobile est dans une bonne passe : on a une perte sèche de ~2% en apparence sur le nombre d’abonnés, mais compte tenu de la conversion au forfait le plus onéreux et les volumes d’entrée/sortie sur chaque forfait, le bilan est plus que positif.
Par ailleurs, la vente de terminaux était prévisible, pour ne pas dire structurelle : les gens principalement intéressés par le côté “découplé” sont justement ceux qui veulent pouvoir librement choisir où l’herbe est la plus verte à tout instant, tout comme ceux qui se satisfont du même terminal pendant plusieurs années.
Donc par essence, ce service là ne peut pas être un facteur de traction (sauf si Free passait des accords d’exclusivité avec Samsung/Apple, seuls capables d’attirer le chaland peu important le réseau derrière).
-> Perte de 32000 abonnés (soit ~0,5% de leur base)
Considérant…
Là encore, le bilan est effectivement positif : ils sont armés désormais pour redevenir agressif en termes de qualité de service (reste à voir à quel prix - la Delta reste un échec en termes de positionnement de marché, heureusement la Revolution reste une bonne box maintenant que les bugs sont corrigés XD).
-> Bénéfice en baisse en France mais en hausse globalement
Sachant en plus que… “résultat net de 330 millions d’euros, soit une diminution de 18,8 %.” “endettement net est de 3,983 milliards d’euros fin 2018, contre 2,449 milliards fin 2017.” “ratio d’endettement est de 2,3x au 31 décembre 2018, en hausse de 0,9 point sur un an. ”
Donc si on résume, Free investit plus (frais finalisation+production+livraison+promotion Delta, antennes 4G, extension fibre) mais réussit tout de même à être en hausse sur les bénéfices nets.
Autrement dit, Iliad fait de la putain de gestion saine : profiter d’une bonne dynamique pour renforcer ses bases afin d’anticiper les années à venir en déroulant une stratégie planifiée sur 5 à 10 ans (et probablement initiée à peu près en même temps que la conception de l’offre fixe “tout en un” avec la Delta).
Je me corrige : la plupart des actionnaires sont des décérébrés profonds (cela dit ce n’est pas nouveau, et c’est bon pour ceux qui veulent se faire des thunes finalement) : ils “punissent” une entreprise qui, pour une fois, a un vrai plan de développement. Gg les mecs " />
En bref, Iliad a réussi à stabiliser sa situation sur le mobile en France avec environ 4 ans de retard dûs aux magouilles des trois autres, et du coup remet l’accent sur le fixe pour revenir au niveau des autres opérateurs (qui, pour rappel, ne se sont réellement décidés à fibrer qu’après d’être fait massacrer sur l’ADSL en termes d’équilibre réseau/services) en jouant à la fois sur la qualité réseau (fibre) et sur la “qualité” des services (Delta - toujours entre guillemets vu le positionnement services/prix perché à moins que ça ait changé depuis le lancement -).
Et là, début 2019, on a une convergence sur l’offre côté réseau (enfin, selon eux) et matériel (plus ou moins). Plus qu’à adapter les offres pour rester compétitif (à moins qu’ils ne proposent encore la Fibre avec une box normale ?) et surtout, communiquer sur le fait qu’ils sont revenus dans la course !
Parce que pour moi perso, “la fibre Free” c’était un concept mort et enterré… ^^
Très juste, il y a également l’évolution des usages qui joue. Cela dit à mon sens ça affecte de manière “équitable” tous les opérateurs côté fixe. Côté mobile, ça fait une carte de plus à jouer pour Free sur le papier vu la limite de 100 Go. Mais auraient-ils de quoi tenir la charge si réellement les gens pour qui le plafond suffirait se convertissaient ? Perso j’en doute.
Depuis des mois j’ai vraiment une chouette qualité de débit en 4G chez Free à peu près partout, mais je soupçonne aussi que la concentration d’usagers n’est pas la même par rapport aux autres opérateurs (en tout cas Bouygues/Orange). ^^
30 ans de web : face à une diversité agonisante, Tim Berners-Lee veut secouer les consciences
13/03/2019
Le 14/03/2019 à 11h 13
T’es vraiment fun toi.
Et la question de base, à savoir “le citoyen utilisant SON ordinateur ou SON téléphone voulait-il vraiment souscrire un contrat d’utilisation avec Google ?”
Autant le coup du navigateur par défaut peut vaguement s’expliquer même si on reste dans l’abus de position (confer Microsoft et Internet Explorer qui a fini par se faire taper sur les doigs), autant sur ordinateur il n’y a JAMAIS eu de CONSENTEMENT.
“ Si tu n’as pas les mêmes valeurs, soit. Mais ne les impose pas aux autres par tiers interposés.”
C’est marrant que tu dises ça car c’est très précisément ce que fait Google justement : imposer ses valeurs (exploitation des données, obsolescence de la notion de vie privée) aux autres (les utilisateurs) par tiers interposés (contrats avec Sourceforge -pour n’en citer qu’un- pour inclure Chrome en ninja dans les installeurs de softs qui n’ont rien à voir -et dont on a probablement pas requis l’autorisation des auteurs non plus, vive les licences d’utilisation bardées de clauses léonines).
Le 13/03/2019 à 15h 47
Oui, bien sûr.
Ça n’a certainement rien à voir avec les manoeuvres plus qu’agressives de Google de type :
Bref, rien à voir avec le fait que Google fasse l’équivalent d’un viol informatique du système en comptant sur l’insuffisance culturelle des utilisateurs pour comprendre ce qui se passe et s’en soucier.
Nooooon. Rien à voir du tout. " />
Entretien avec Nadi Bou Hanna, nouveau Directeur interministériel au numérique (DINSIC)
14/03/2019
Le 14/03/2019 à 11h 11
Je ne suis pas sûr de comprendre comment tu en es arrivé à cette compréhension…
Bridage : fiasco judiciaire de Bouygues Télécom face à Free Mobile
05/03/2019
Le 07/03/2019 à 01h 11
Pour moi le triple play c’était Internet + Téléphonie (fixe) + Télévision. :)
Et le quadruple play techniquement Free en a proposé une variante dès l’origine puisqu’on pouvait avoir un forfait (certes très restreint) pour 0 euros en ayant une freebox. ^^ Mais effectivement ce n’étaient techniquement pas les premiers à le faire.
On peut cependant noter, l’heureuse coincidence qu’il y a eu entre la confirmation définitive de l’arrivée de Free Mobile dans les 12-24 mois à venir et l’émergence du concept de 4P chez les opérateurs concurrents. Hasard total. " />
Le 07/03/2019 à 01h 02
Agreed.
Free en tant que boîte agréable à vivre et innovante a vécu (si tant est qu’elle ait jamais existé, mais je serais tenté de dire que c’était effectivement un cadre intéressant dans les premières années - même si certainement en mode rush permanent dès le départ -).
D’ailleurs, on pourra noter que depuis quelques années Niel est beaucoup plus discret. Cela est-il lié, je ne saurais dire, mais en tout cas Free s’est clairement rapproché de ses concurrents en termes de pratiques de management. ^^
Le 06/03/2019 à 18h 39
Magnifique réponse à deux balles sans source ni argumentaire.
A ce compte là d’ornières, je te répondrai que je n’ai jamais été aussi satisfait de mon réseau mobile que depuis que je suis chez Free, ce qui serait du même niveau de mauvaise foi.
Alors qu’en vrai, je n’en suis satisfait que depuis 2-3 ans en fonction du contexte (lire : ville / campagne / montagne)… " />
(Anecdote illustrant l’amélioration nette de service : je vais dans la même station de ski chaque année depuis… Mieux vaut pas compter.
Il y a deux ans, tu pouvais choper une antenne mais c’était tout pourri, je passais par Orange de soeurette pour avoir un peu d’internet mais globalement tous les opérateurs étaient en PLS sur la qualité réseau en période de pointe.
- L’année dernière, on pouvait téléphoner correctement et on avait une connection “3g-sub” mais suffisante pour mon quotidien chez Free, un autre opérateur (Bougues ou Orange, je sais plus) tirait son épingle du jeu. En creux, on avait déjà un débit correct.
Ce qui m’a permis de télécharger des jeux steam, à 1850m, depuis mon mobile, plus rapidement que depuis ma ligne fixe “pseudo-fibre” Red bridée à 3 Mo/s. " />
Il serait temps d’actualiser tes connaissances plutôt que radoter. :)
Le 05/03/2019 à 15h 56
Je trouve dommage que le tribunal n’ait pas ordonné la publication, aux frais de Bouygues Telecom, d’un message dans Les Echos etc avec le libellé “Bougues Telecom débouté de ses tentatives de bridage juridictionnel”. " />
Pour la cour d’appel de Nancy, vous pouvez surfer au boulot si cela ne nuit pas à votre travail
06/02/2019
Le 11/02/2019 à 15h 30
Tu n’est pas d’accord sur mon évaluation du nombre de sites ? Tu penses qu’il y en a plus ? " />
Je suis tout à fait d’accord pour dire qu’il y a des sites “d’information” qui sont tout autant douteux en termes de licéité que des sites pornographiques (notamment des sites d’extrême-droite, à tendance jdihadiste ou autre) mais à ma connaissance tant qu’un employé se contente de consulter du contenu (le délit de consultation habituelle ayant été retoqué -à moins que je ne sois plus à jour-) il sera difficile de venir intenter une action en justice contre l’employeur.
Même simplement en termes de détection, il faudrait que quelqu’un prête réellement attention à ce que fait son collègue (ou que ledit collègue ait par ailleurs un comportement irrespectueux/agressif) pour déceler la consultation de sites tendancieux.
En revanche, consulter/télécharger un contenu illégal, c’est un acte qui en cas de détection va retomber immédiatement sur l’employeur, même s’il peut par la suite apporter la preuve que l’employé a agi en dehors du cadre autorisé.
Entre les contenus d’éditeurs uploadés sur les plates-formes (contrefaçon), des “revenge sex tape” (atteinte au droit à l’image, atteinte à la vie privée), les vidéos “contraires aux bonnes moeurs” (zoophilie ?), les vidéos illégales (pédophilie), il y a juste trop de contenus susceptibles de contrevenir à la loi d’une manière ou d’une autre.
Si un employé consulte une vidéo porno (ou l’échange avec des collègues), quand bien même il aurait l’autorisation pour ce faire, il y a également un risque qu’un(e) collègue s’en offusque et décide de monter le truc en épingle sur un pseudo fondement de harcèlement sexuel. Même si c’est bidon, ça fout une ambiance de merde en interne, ça peut pourrir l’image en externe.
=> Ça ne vaut juste pas le coup de laisser tenter. Autant tout bloquer point.
Exactement comme pour le peer-to-peer : quelqu’un peut tout à fait vouloir utiliser un client torrent pour partager des gros fichiers, télécharger des logiciels pour lesquels il a une licence ou autre truc legit. N’empêche que la majorité des utilisateurs utiliseraient plutôt un tel outil pour télécharger des oeuvres audiovisuelles. Ça ne vaut juste pas le coup de l’autoriser avec mise en place de contrôles en sus (sauf si la boîte est une boîte d’informatique, et encore).
Le 08/02/2019 à 17h 01
Bah, si, ça change tout.
Tu as des centaines de milliers de sites pornos à travers le monde (je balance une échelle au pif mais je crains n’être à peu près dans la bonne dimension tristement).
Sur ces sites, tu as…
Et toutes les variations graduelles entre ces extrêmes.
Sans compter toutes les débilités des pauvres filles aigries sur le sexisme au bureau (c’est une chose que de coller une affiche salace en plein open space, c’en serait une autre de consulter un porno dans un bureau fermé dans son coin, pourtant la plupart des gens mettront ça sur un même plan).
Autrement dit, quand quelqu’un dit à son employeur “je consulte un site d’info” le risque qu’il commette, volontairement ou non, une infraction pénale (qui pourrait potentiellement retomber sur l’employeur au moins le temps d’identifier l’employé), ou au moins une emmerde médiatique potentielle, doit être de l’ordre de 0.5% grand grand max.
Si un employé dit au contraire “je consulte un site de cul”, le risque est plus dans les 99%.
D’où l’intérêt de bloquer par défaut tout ce qui ressemble de près ou de loin à un site de boules.
C’est clairement pas la manière idéale de faire dans un contexte de respect des libertés individuelles et vie privée, mais à mon avis, si tu demandes à des gens “tu préfères quoi, que ton boss investisse dans des primes mais bloque tout contenu pron par défaut, ou dans un service d’e-learning pour bloquer à la volée l’accès au porno illégal pour que certains puissent matter tranquille” j’ose dire que la plupart choisiront la première option.