votre avatar Abonné

SebGF

est avec nous depuis le 16 septembre 2009 ❤️

Bio

Blogger, writer, amateur photograph, tinkerer, solutions architect, problem solver, coffee addict.

Site personnel

https://zedas.fr

14082 commentaires

Le 28/08/2023 à 15h 48

J’avais raté le fait que Pesquier avait été commandant, bien vu :yes:
Après c’est probablement dû au fait que pendant mon enfance j’ai vu la station se monter avec exclusivement des navettes américaine (et qu’on y va avec des vaisseaux russe ou americains) que j’ai du mal à assimiler le fait que sa gestion est partagée avec l’ESA même si je sais que c’est le cas ;)

La construction de l’ISS fut même ce qui a prolongé le programme des navettes spatiales US, c’étaient les véhicules les plus efficaces pour ça. Elles devaient être arrêtées avant suite au dernier accident et aussi le coût qui était immense.

Le 28/08/2023 à 14h 45

Une première effectivement qui va se banaliser vu que l’accès à l’espace est limité à une faible poignée d’acteurs.



L’ISS en termes de module vient d’une bonne partie des USA oui, ainsi que la Russie, la JAXA, l’ESA et autres. Mais elle est régie par un accord international pour le coup dans lequel chaque module est sous juridiction de son créateur. Et elle fonctionne par rotation de commandant de bord au fil des missions habitées (Thomas Pesquet a eu ce rôle durant sa dernière mission là haut).



A noter que l’Europe (notamment via l’ESA) est considérée comme un pays dans le cadre de l’ISS. Et que l’ESA comprend des pays non membres de l’UE.

Le 28/08/2023 à 13h 21

Oué enfin ça dépend de la façon dont le prélèvement d’organe a été fait hein. Si en face c’était un camion, en dehors de la pâtée pour chien il doit pas rester grand chose d’utilisable.



Sinon Lille c’est pareil, et j’imagine un peu toutes les grandes villes avec ces moyens de déplacement. Sur Lille, les vélo et trottinettes ont visiblement la priorité absolue puisqu’ils se permettent de foncer au milieu des routes, aller à contresens, débouler comme des tarés, y compris contre des piétons.



Et en tant que cycliste moi-même, ça m’agace de voir ça et j’ai l’impression de passer pour un tocard quand j’attends à un feu rouge.

Le 25/08/2023 à 06h 21


Charly32 a dit:


Prendre un dos d’âne à 130 km/h en voiture électrique, ça fait quoi ? :dd:


Mal au cul.



Les suspensions sur les voitures électriques sont généralement plus fermes, même le mode sport de ma précédente thermique ne l’était pas autant. Donc certains dos d’âne sont horribles (ceux catégorie trottoir), sur mon trajet quotidien j’en ai un qui, même en vitesse piéton, j’ai l’impression de fait un bond énorme.



Et je trouve celles des Tesla encore plus fermes pour avoir monté plusieurs fois dedans en passager. En fait je me demande si y’a des suspensions.

Le 28/08/2023 à 13h 18

C’est effectivement un bel exemple de politique de sécurité défaillante. La réaction passe toujours par une évaluation du risque à faire, à ne pas faire, et combien de temps il faut pour s’assurer que la remédiation ne tanke pas la prod.



Des cas assez courants aussi en dehors des exceptions comme log4shell : les règles firewall. Une personne un peu trop zélée qui voit une ouverture trop large, la fait supprimer, et tanke la prod parce que 50 serveurs se retrouvent en blackout (quand ça nique pas le lien entre deux DC, ça c’est fun).



Si un système d’information était bien géré, cartographié, documenté, et maîtrisé, les 34 du personnel de l’IT serait au chômage.

Le 27/08/2023 à 14h 52

Je sais bien qu’un serveur est scruté, peu importe son OS (mon PC perso est sous Linux depuis 25 ans et il est exposé h24 depuis 2000 en ADSL, il a juste un serveur SSH ; j’ai mis un fail2ban depuis longtemps pour éviter de me faire pourrir les logs - et mitiger le risque si SSH a une vulnérabilité).



Je répondais au commentaire sur l’OS utilisé sur le poste de travail.
Les faits sont avec moi, encore en 2023. C’est juste du bon sens de ne pas utiliser Windows sur un poste de travail en entreprise, mais bon…
Même si Linux devenait majoritaire (c’est pas près d’arriver), ça resterait probablement moins risqué.

Poste de travail ou serveur, même combat : les distributions utilisent peu ou prou les mêmes composants. Si un de ces composants est troué, il y a risque pour le SI. Et le principe d’un 0 day, c’est de l’exploiter aussi longtemps que possible avant qu’elle ne soit dévoilée.



Il faut définitivement arrêter de considérer que la sécurité informatique peut reposer sur la croyance que X, Y ou Z est moins risqué parce que pas majoritaire ou que sais-je. C’est une posture au mieux stupide. Désolé d’être sec, mais c’est franchement lassant après 20 ans de Linux de toujours lire ce genre d’ânerie. Je ne sais pas de quels “faits” tu parles, mais si c’est juste une expérience perso, je trouve ça très faible vis à vis de l’actualité IT qui fait régulièrement état d’attaques incluant tout systèmes.



La sécurité IT, c’est du concret : de l’audit, des études, du hardening, des tests de vulnérabilité, de la proactivité, de la réactivité, du suivi, de la gouvernance, etc. Pas une marque ou un produit. Jamais.



Perso je préfère considérer le poste de travail comme étant vulnérable, peu importe le truc machin sur lequel il tourne et mettre les protections en conséquence pour éviter qu’il n’emporte le reste du SI avec lui en cas de vérole.

Le 27/08/2023 à 13h 20


OlivierJ a dit:


Et si certains contestent en disant « oui c’est normal, Linux est très peu utilisé donc peu ciblé par les attaquants » (discours que j’entendais déjà dans les années 2000), eh bien raison de plus d’utiliser un OS minoritaire sur le poste de travail, s’il permet de diminuer les risques.


Comme ça il devient majoritaire et de plus en plus ciblé.



Ce qui est déjà le cas vu que Linux est le backbone de quasiment tout le Public Cloud via diverses distributions soit spécialisées, soit généralistes.



Une stratégie sécurité reposant sur la popularité d’un système est complètement aux fraises. C’est même encore plus dangereux car cela créé un sentiment d’immunité totalement faux. Les systèmes Linux et les éléments qui les composent sont tout autant scrutés et attaqués que n’importe quel autre système. Créé une VM sur un cloud provider, expose le ssh 22 et un serveur httpd / nginx qui sert juste un hello world pendant une journée. Regarde les logs de connexion et tu comprendras.

Le 25/08/2023 à 21h 02

Faut pas briser ses rêves comme ça, s’il a envie d’y croire au fait qu’un système comme le Linux qu’on a aujourd’hui peut émerger comme ça juste avec quelques dizaines de personnes qui y consacrent leur week-ends gracieusement ! 🤣

Easy avec ChatGPT et GitHub Copilot. :langue:

Le 28/08/2023 à 13h 12

Pour le coup, je suis d’accord que l’idéal serait que la modération se fasse par des gens de l’équipe MAIS cela a plusieurs problèmes qui font que j’apprécierais malgré tout une “modération communautaire” comme je la décrit :
1/ la “modération communautaire” est plus rapide (notamment les WE)
2/ la “modération communautaire” décharge les modérateurs d’une partie du travail (très important pour une petite équipe comme celle de NXi)
3/ elle est moins arbitraire que si c’est fait par des gens de l’équipe
4/ elle est moins “forte” que celle de l’équipe, puisque les commentaires restent visibles
5/ elle permet de filtrer des commentaires qui ne sont pas filtrables par l’équipe pour des raisons déontologiques, mais qui n’ont malgré tout pas leur place (exemple : quelqu’un qui ferait un commentaire transpirant la haine de l’autre, mais utilisant un verbe qui “passent” les filtres de la modération : si la communauté considère que ce type de commentaire n’a pas sa place sur NXi, ce commentaire peut être rendu moins visible sans que la responsabilité de NXi ne soit mise en cause)



J’ai beau être pour la liberté d’expression en général, je reste malgré tout assez au fait du fonctionnement du cerveau humain pour juger qu’il est nécessaire que certains propos ne soient pas mis en avant.

Fut une époque où il y avait des modérateurs issus de la communauté sur ce site. Ils ont fini par disparaître pour des raisons qui leur sont propre et ne me regardent pas. Mais c’est un taff ingrat, car tu te fais constamment accuser de partialité ou de dictateur par des drama queens.



Cependant, cela reste l’entre deux qu’il manque. L’équipe de rédaction n’a pas que ça à faire de ramasser les poubelles et ça coûte du temps qui n’est pas utilisé pour produire le contenu. L’entreprise pourrait avoir un modérateur à temps plein, voire même partiel, qui serait déjà en capacité de décharger de cette tâche ingrate (et laisser le reste de l’équipe en back-up).



Egalement, le retour de modérateurs issus de la communauté serait salutaire pour aider à décharger à un moindre coût. Une rémunération en nature pour l’effort est une possibilité pour motiver
(réduction voire abonnement gratuit, etc).



L’humain reste faillible, et c’est pour ça qu’une bonne politique de modération implique aussi un recours possible. Cela va paraître surprenant, mais les humains ont une capacité permettant de communiquer entre eux. Je sais qu’il s’agit là d’un concept novateur pour lequel nous ne sommes certainement pas prêts, mais le dialogue peut aider à calmer une tension ou un malentendu.



Là où un algo ou un robot, il dira fuck parce que son programme lui ordonne de le dire.

Le 28/08/2023 à 10h 24


jpaul a dit:


Attention, sur des systèmes similaires ce n’est pas la visibilité d’une personne qui est réduite mais bien la visibilité d’un seul commentaire.


Personne ou message : même combat pour moi. Je suis contre le masquage automatique d’un propos en fonction de critères arbitraires.



Je ne vois aucun avantage à influencer la visibilité / l’ordre d’une discussion si une foule d’inconnus le décide de manière arbitraire. C’est le mot le plus important de l’histoire car une modération se base sur des règles. Un filtre s’applique à soit même. Un “+1 / -1” s’applique à tout le monde et n’est basé sur aucun critère objectif. L’effet de foule est aussi présent ici avec des profils qui ont tendance à prendre à parti rapidement les gens. Donc je ne crois pas en une éventuelle bienveillance.



Un troll, ça se signale à la modération et celle-ci doit agir. Ni plus, ni moins.



Quand je dis que le problème est humain, c’est global : NXI n’a pas assez de bras pour assurer la modération, et sa communauté est tout autant envahie de personnes malveillantes que n’importe quelle autre. On ne peut pas répondre à cela par de la technique.

Le 28/08/2023 à 10h 11

Après, ne serait-il pas possible de faire un système où on met et enleve des points à un commentaire, et où chacun pourrait mettre un seuil “bas” à partir duquel un commentaire serait “replié” (tout en étant dépliable en un clic) ?



Exemple :
Je configure dans mon compte un seuil bas à “-10”.



Machin fait un commentaire qui reçoit 3 votes positifs et 2 votes négatifs : 1 point / il est affiché normalement
Truc fait un commentaire trollesque qui reçoit que 15 votes négatifs : -15 points / il est “replié” : je dois cliquer dessus pour l’afficher



Tu as envie de voire TOUS les commentaires et mets ton seuil à “-100000”.
Tu vois les commentaires de Machin et Truc comme maintenant.



Tu n’es pas connecté, on met le seuil à “-30” par défaut.

Pourquoi faire compliqué quand tu peux te contenter d’ignorer ou filtrer par toi-même un propos ou une personne qui te déplaît ?



Pourquoi faut-il que ce soit les décisions d’autres personnes qui influencent ce que toi tu dois voir ou non ?



Pour moi, la modération n’a que deux aspects :




  • Appliquée à soit-même avec les outils que l’utilisateur a à sa disposition : ignorer la personne (mentalement), ignorer techniquement la personne (filtre), signaler le commentaire

  • Appliquée à l’ensemble de la communauté par l’équipe en charge de son administration : elle fait appliquer les règles de celle-ci (qui doivent être claires et faciles d’accès), elle averti quand il y a débordement, elle sanctionne quand l’avertissement est ignoré (suppression / lock du fil / ban du profil)



Il n’y a rien à automatiser dans l’histoire car le problème est purement humain. Je refuse qu’une personne ait de la visibilité ou des droits différents en fonction de son score de ⭐⭐⭐ quand bien même cette personne m’insupporterait au plus haut point (et il y en a). Ca n’est pas ma définition d’une communauté ouverte mais d’un arbitraire dégueulasse où une personne qui explique un point de vu poliment, argumenté et clair peut se faire “downvote” parce que la foule n’est pas contente.



Question simple que j’avais déjà posée sur l’article qui parlait de la modération : étant en fort désaccord avec cette idée, quels votes auraient eu mes propos ? En étant réaliste, pas en imaginant que tout le monde soit bienveillant car cela n’existe pas. Me serais-je fait “downvote” ? Mes opinions auraient-elles été masquées parce que impopulaires ?



Je refuse catégoriquement ce genre de communauté personnellement.

Le 28/08/2023 à 09h 11

Ca daterait du début de la v6 : nextinpact.com Next INpact

La nouveauté à cet époque c’était l’affichage en fil de discussion (que perso je désactive, je déteste ça comme dans les clients mails avec leur vue “conversation” sans queue ni tête). Ca n’est pas lié à un quelconque système de vote de messages.

Le 28/08/2023 à 09h 07


SKN a dit:


Personnellement j’aime bien voir les cons, ça me rassure sur mon état mental :mad2: , et des fois étonnement ils ont des fulgurances qui peuvent être pertinantes (pas tous je te l’accorde ^^). Et puis ne jamais oublier qu’on est tous le con d’un autre :fume:


Absolument. Et parfois tu pourras tomber d’accord ou partager le point de vue d’une personne qui, habituellement, t’insupporte. Et il me paraît aussi plutôt sain de lire des avis divergents pour sortir du carcan de ses certitudes ou de sa zone de confort.



Personnellement, je n’ai filtré qu’une seule fois une personne ici et depuis elle a disparut de ce site. Je me contente d’ignorer les personnes qui me paraissent malintentionnées dans leurs propos ou sont agressives.

Le 28/08/2023 à 08h 50


Arcy a dit:


Normalement, c’est déjà développé puisqu’on avait eu cette fonction a une époque et qui avait été retirée (peu utilisée il me semble).


J’ai pas souvenir d’avoir vu un tel fonctionnement ici. Et perso je déteste cette idée de vouloir réduire pour tout le monde la visibilité des personnes avec qui on est en désaccord (peu importe la raison).



Perso je préfère qu’on me laisse choisir qui je ne souhaite pas voir ou laisser ce travail à la modération du site. Je refuse qu’une foule décide pour moi qui j’ai le droit de lire ou non ou si j’ai le droit d’exprimer une opinion en fonction d’une pseudo réputation arbitraire. Ca serait le dernier clou sur le cercueil me concernant.

Le 28/08/2023 à 08h 40

Je suis d’accord, je pense qu’on a oublié la signification du mot “informatique”, soit “traitement automatique de l’information”.



L’autre problème est que les projets IT cherchent à résoudre des problématiques métier par des outils, sans jamais remettre en cause le geste métier. De ce fait, tu reçois un choix au lieu d’une expression de besoin. Même si avec le ralentissement économique la mode du “on prend le plus cher comme ça on sait que ça sera mieux” s’est calmée, l’idée reste la même : prend le truc à la mode sans réfléchir à qu’est-ce que ça nous apporte et à quel besoin cela répond-t-il.



Au final, peu importe l’époque, la dichotomie du métier versus la technique est toujours présente. Et peu importe les organisations, les deux domaines ne se causent toujours pas alors qu’ils sont censés travailler ensemble. Un geste métier foireux by design ne pourra pas être compensé par l’outil.



Mais ça, ça rentre pas dans les têtes. :craint:

Le 25/08/2023 à 20h 59

Un emploi créé par l’IA depuis quelques années : l’entraînement de celle-ci. Le paramétrage du modèle requiert beaucoup de temps et de main d’oeuvre pour l’affiner (c’est similaire à la modération des médias sociaux). Il y avait d’ailleurs eu un article ici qui relatait les conditions de travail du personnel au Kenya qui sous-traitait pour OpenAI.



Le prompt engineering aussi fait partie des disciplines associés à l’IA qui peuvent devenir un métier (notamment pour l’accompagnement d’implémentation de l’outil).

Le 25/08/2023 à 07h 36


Wosgien a dit:


Je vois l’IA comme une opportunité de rationaliser l’informatique, et si ça pouvait tuer les interfaces web pour la saisie, ça serait bien.


Oui pareil. Perso j’y vois une nouvelle forme d’interaction humain-machine plus naturelle. Les interfaces Web sont des plaies : constamment mal foutues ou lentes, chacune conçues selon la lubie du designer même si un certain standard de fait existe on doit systématiquement s’y familiariser.



On a eu les balbutiements avec Siri/Cortana/Google Home, mais clairement ces outils sont aux fraises comparé à la capacité de compréhension et discussion naturelle de GPT (pas pour rien qu’ils veulent désormais l’intégrer !). Le problème qui se pose reste la vie privée. Les offres d’entreprise garantissent contractuellement de l’isolation et l’absence d’exploitation des prompts, pour du grand public ça sera les mêmes travers que les outils précédemment cités (et les outils basés GPT actuellement disponible l’ont déjà).



Le premier cas d’usage déjà appliqué est le chatbot (Carrefour l’a fait, d’autres aussi depuis il me semble). Beaucoup plus performant avec l’IA générative, comprend mieux la demande utilisateur, et possibilité de l’interfacer avec une synthèse / reconnaissance vocale pour une meilleure interaction. (et la synthèse vocale elle aussi a très bien progressé, j’ai eu récemment une démo de ce cas d’usage, c’était très naturel)



J’ai eu vent de diverses projets comme pour décharger les centres d’appels ou le chatbot en vocal, basé sur IA générative, permettrait de répondre aux questions triviales et renverrai vers un opérateur quand il atteint ses limites.



Exemple assurance : déclaration d’un sinistre. Il s’agit d’un questionnaire relativement standard : nature, localisation, coordonnées du client, apporter des détails, précisions, etc. L’IA générative saura faire la prise d’appel et ensuite transférer à l’opérateur humain qui traitera avec le client en fonction de son contrat.



Même chose pour les opérateurs téléphonique : les centres d’appels de support suivent un bête script. Le chatbot vocal pourra tout aussi bien le faire.



Intérêt commun du point de vue du client : temps d’attente réduit voire inexistant.




Après, je m’inquiète du côté marketing et de la nature humaine qui va pousser à utiliser de l’IA comme outil ultime qui prend les décisions à la place.


Oui, entièrement d’accord. Au cours d’une présentation des outils IA type GPT, l’intervenant avait fait la comparaison avec le stagiaire. L’IA est un stagiaire : elle apprend, elle peut faire des erreurs, on ne lui confie pas les clés de sa prod, on ne lui donne pas de responsabilité, on la supervise.



C’est la raison derrière le nom marketing de “Copilot” des outils basés IA chez Microsoft d’ailleurs. Pour bien marquer le fait que l’outil est un assistant, pas un décisionnaire ni un remplaçant. Et dans le cas de GitHub Copilot, au même titre que le pair-programming entre deux humains où chacun va faire une revue du code de l’autre, le développer doit faire la revue du code généré par Copîlot. Dans sa version actuelle Copilot n’est pas bon en review, dans la version X il pourra aider à le faire (j’ai aussi vu des démos sur son intégration dans la suite sécurité pour suggérer un fix de code vulnérable, plutôt intéressant comme use case).



In fine, il y a aussi un jeu de responsabilités à définir : si l’employé a bêtement copié un contenu généré par IA erroné ou ayant provoqué des problèmes, qui faut-il blâmer ? L’outil ou l’employé qui n’a pas contrôlé le taff avant de lancer ça ?



Pour moi, c’est comme en cuisine, le Chef contrôle les plats de ses commis avant que ça ne soit envoyé au client. Ici c’est pareil de mon point de vue. Et si le commis a fait de la merde, c’est l’image du Chef qui morfle.



Mais je pense que le drama en mode dédouanement pour dire “l’IA a insulté mes clients !” alors que l’outil a été mal configuré ou paramétré risque d’arriver (en fait c’est déjà arrivé avec Bing et ChatGPT). Après tout, si les opérateurs au téléphone le faisaient en mettant des insultes ou commentaires dégradants sur les fiches clients, ce genre de chose reste tout à fait probable. La différence étant que quand on donne un ordre au modèle, il le suit systématiquement contrairement à l’employé.

Le 25/08/2023 à 06h 30

C’est déjà une réalité.



Lors du débat de la réforme des retraites et notamment sur la pénibilité, il avait été évoqué le secteur du retail. Grâce / à cause de l’informatisation du métier, des études semblaient montrer que la pénibilité du secteur avait augmenté parce que les employés de magasins étaient plus multi-tâches qu’avant (caisse / remplissage de rayon / service au client / activités diverses).



Cela se remarque surtout dans les magasins de quartier où il n’y a que 3 ou 4 personnes pour faire tourner la boutique.



Donc oui, l’IA va très certainement amplifier ce modèle aux professions de bureau (je pense que c’est aussi déjà une réalité mais ça se voit moins).



Une autre intervention que j’avais entendue à la radio il y a quelques mois disait que concernant certaines craintes émises au sujet de l’IA et de l’emploi, c’est qu’elle “attaque” une catégorie traditionnellement épargnée par les évolutions technologiques : tout ce qui est cadre et prestation intellectuelle. Là où les ouvriers / techniciens étaient plus souvent ciblés par le remplacement technologique. Et la France est un pays de service, donc forcément ça peut inquiéter ces domaines.

Le 24/08/2023 à 16h 50

Cela va dans le sens d’autres articles et interventions que j’ai pu entendre dans les medias sur le sujet. Comme toute évolution technologique, l’IA aura un impact sur l’emploi et la société en transformant ceux-ci (par l’adaptation ou la destruction).



Au même titre que l’externalisation de certains métiers dans les entreprises est devenu une habitude, l’automatisation de certaines activités issues de prestations intellectuelles va se transformer au moyen de l’IA. L’outil étant capable de traiter une grande quantité de données, l’employé de bureau va plus être amené à contrôler / qualifier / finaliser le travail de celui-ci. Un peu comme les métiers de manutention ou techniques qui se retrouvent automatisés et supervisés par des humains. Pour le coup, l’exemple dans la série Westworld avec la personne qui dicte à l’ordinateur le scénario qu’elle écrit est une réalité qui se développe.



Avec l’externalisation, j’ai personnellement constaté que les employés dans les grandes entreprises avaient eux-même eu leur activité de transformée. D’ordre général, leur métier était supprimé et ceux-ci évoluaient sur l’encadrement de prestataires. Forcément ça ne plait pas à tous car tout le monde n’a pas envie de finir dans le management (moi le premier), et être 5000 employés dans une boîte dont 90% de managers n’a aucun sens.



Après comme toujours, il faut faire attention à l’emballement et l’effet “wahou” de la technologie et ne pas se jeter dessus à corps perdu sans un minimum de réflexion. Au même titre que la mode fut à un moment d’externaliser à outrance, le risque pour l’entreprise est de perdre sa compétence sur son propre métier.

Le 27/08/2023 à 13h 26

C’est une évidence qui mérite tout de même d’être signalée en effet. Les modèles génératifs sont meilleurs quand on évite de trop les contraindre et les rendre déterministes.



C’est cette faible prévisibilité qui les rend aussi efficaces.

Le 26/08/2023 à 10h 51

Si les images sont générées avec la même seed, le résultat sera quasi toujours le même moyennant quelques variations. De même si l’image est générée à partir d’une autre.



C’est le but du jeu justement.



Donc sans prompt ni paramètres utilisés pour produire l’image, les assertions disant “il copie” ne valent rien. Pour info, le prompt et les paramètres sont sauvegardés dans les metadata en général. Par contre une retouche dans un logiciel peut les effacer.



C’est comme les témoignages disant que ChatGPT affirme des conneries fausses : sans le prompt, difficile de savoir si le modèle a été trompé ou s’il s’est authentiquement planté.



Pour avoir beaucoup utilisé Stable Diffusion, y compris avoir produit des images à but commerciales avec, un même prompt génère quasi toujours des variations assez différentes du moment que le seed est laissé en random. Si par contre on apprécie un résultat et qu’on veut itérer dessus, il suffit de lui dire de garder le seed en question et de lui redemander une série. Naturellement, le résultat sera toujours très proche du premier puisque c’est, à nouveau, le but même de figer la valeur du seed.



Je t’invite à aller faire un tour sur Civitai, les utilisateurs publient généralement les metadata du prompt. Tu prends le prompt, le modèle, et le seed utilisé, et tu as de très fortes chances de reproduire le résultat.

Le 24/08/2023 à 11h 55


fred42 a dit:


Ceci est faux. Cela prouve que tu ne comprends pas comment fonctionne une IA générative. Elle “apprend” ce qu’est le pointillisme sur des œuvres définies comme en étant. À partir de là, oui, elle est capable de faire des œuvres de ce style, mais elle ne “repompe” pas parce qu’elle ne garde pas en mémoire les œuvres avec lesquelles elle a appris, elle a juste “retenu” les caractéristiques de ce style.


:yes:



Ah merci ça fait plaisir à lire.



C’est exactement ça, GPT retient les corrélations de mots dans un contexte donné. L’information en tant que telle (la phrase et son sens) est perdue, il n’a aucune mémoire comme nous l’entendons pour nous-même. Et il n’a aucune connaissance du “sens” des mots.



Pour le tester il suffit de lui demander de retranscrire le paragraphe d’un livre (quand il ne s’auto censure pas à cause du copyright même sur des oeuvres libres de droit… ChatGPT là dessus est devenu nul) : il a de très grandes chances de réécrire le texte “à sa sauce” en imitant l’original.



J’avais fait l’exercice avec le 1er paragraphe de 20 000 lieues sous les mers dans un commentaire ici, le contenu était là, mais l’écrit était différent. Car GPT a fait ce qu’il sait très bien faire : synthétiser et restituer une information.

Le 24/08/2023 à 09h 16

Ta question est très intéressante.



Si l’on applique la décision de la juge, telle quelle, le code généré par une IA ne devrait pas pouvoir être copyrighté.
C’est une œuvre qui n’est pas générée par un humain.



Cependant, l’humain génère les prompts qui génèrent à leur tour (via l’IA) le code. Est-ce que l’argument de non prévisibilité de la génération existe dans le cas de la génération du code ? Je n’en sais rien, n’ayant pas utilisé ces fonctionnalités. Si la réponse est le code est prévisible (et/ou répétable), alors cela change du cas de l’œuvre dont on parle dans la brève : on pourrait considérer que c’est l’humain qui génère le code avec un générateur de code automatique comme il en existait avant (à partir de pseudo langages), sinon, le code n’est pas copyrightable.



Mais est-ce important ?



Dans le cas du code propriétaire, le Copyright ne sert qu’en cas de vol du code. On peut prouver que c’est notre code.
Si le code peut être généré par une IA, pourquoi prendre le risque de le voler ?
De plus, si j’ai bien compris, le code généré par une IA est correct pour des choses assez simples (ça pourra évoluer dans le temps), dans ce cas, le même code produit par un humain serait-il copyrightable ? Ça me rappelle les luttes sur du code Linux pour savoir s’il avait été copié ou non du code UNIX. À un moment, il a été dit que ce code était l’état de l’art et tout développeur aurait codé de cette façon, donc pas de violation de Copyright.



Dans du code libre, ça peut être problématique : peut-on soumettre à une licence libre du code dont on n’est pas l’auteur (au sens droit d’auteur, Copyrigth ou autre) ?
Si la réponse est non (et je crains que ce soit le cas), il faudra distinguer le code sous licence libre et le code généré par une IA. Rien d’infaisable, mais c’est plus lourd à gérer.



Et quand on modifie ce code, à partir de quel moment (quel % de modification) devient-il notre code ?

C’est effectivement du côté d’une licence libre que ça peut être compliqué, car il faut être porteur du droit d’auteur pour l’attribuer au code.



GitHub Copilot aujourd’hui ne pose pas vraiment de soucis : le dev doit accepter ou non la suggestion, au même titre qu’il peut la modifier si ça ne convient pas totalement. Et dans les ToS de GitHub, il est indiqué que les suggestions de Copilot ne sont pas sous droit d’auteur. La version For Business permet de bloquer le code libre pour éviter les risques d’implémenter du code sous licence libre. Copilot compare la suggestion avec sa base de connaissance et si c’est trop proche, il auto-censure cette proposition si la protection contre le code libre est activée.




Cependant, l’humain génère les prompts qui génèrent à leur tour (via l’IA) le code. Est-ce que l’argument de non prévisibilité de la génération existe dans le cas de la génération du code ?


Ca dépend de l’outil utilisé.



Sur ChatGPT, GitHub Copilot, l’utilisateur n’a pas la capacité de modifier la température du modèle. Sur Bing, tu l’as avec les 3 boutons qu’il propose : “strict / équilibré / imaginatif”, ça correspond à la température (pour vulgariser, je pense que ça joue sur pas mal d’autres aussi). En mode strict, le modèle est déterministe, il prendra systématiquement (ou presque, il reste des autres leviers) la meilleure probabilité de génération, ce qui aura pour effet de lui faire répéter souvent la même chose. Plus on lui donne de liberté, plus il pourra varier les résultats au fil des prompts.



Un exemple simple : le prompt dit “le ciel est”. En mode déterministe, GPT a de très forte chances de toujours dire “le ciel est bleu”. Au fil que la température augmente, GPT aura plus de chances de varier : “le ciel est bleu”, “le ciel est clair”, “le ciel est nuageux”…



Les autres paramètres sur lesquels l’utilisateur d’un modèle peut jouer, quand il y a accès, ce sont les “top” (k et p je crois de mémoire). Le top k dit au modèle de trier les résultats par la meilleure probabilité et de se limiter à un certain nombre (la valeur de k) pour échantillonner. Le top p est l’inverse : il trie dans le sens de la probabilité la plus faible et échantillonne sur le nombre de “p”.



Concrètement, un modèle paramétré en température 0 (déterministe) avec top k et p à 1 a de très fortes chances de toujours dire la même chose. Plus on monte en valeur, plus le modèle sera “libre” et, surtout, random vis à vis du contexte initial (ça peut jouer sur les hallucinations, mais c’est plus la taille du contexte qui le fait partir en vrille que ça).



Ces paramètres ne sont pas disponibles sur ChatGPT et GitHub Copilot. Bing propose de jouer avec la température de manière prédéfinie. Par contre une intégration commerciale comme les API d’OpenAI ou Azure OpenAI chez Microsoft donnent accès à ces paramètres.



Bref, ça répond pas à la question. Mais il me paraît plus important au préalable de savoir comment ces modèles fonctionnent. Moi-même je n’ai pas la prétention d’être expert sur le sujet et quand je vois dans les docs plus technique la tronche des équations mathématiques derrière, mon cerveau fait un shutdown abort car j’ai pas le bagage pour tout comprendre. Mais utilisé en cas pratique, on saisi rapidement leurs capacités et limitations.

Le 24/08/2023 à 06h 35

Les USA ne reconnaissent pas les droits moraux, donc comme c’est un jugement US, ta question ne se pose pas.



Pour ceux qui les reconnaissent, à supposer que le jugement serait le même, je pense qu’il n’y aurait pas de droits moraux non plus pour ce type d’œuvres, comme il n’y a pas de droits patrimoniaux, les 2 étant reconnus en même temps.
Une œuvre générée par IA n’est pas une œuvre de l’esprit, c’est ça le fond de la décision en fait.



Donc, difficile de dire si c’est dans le domaine public (si l’on retient la définition de WIkipedia qui parle d’œuvre de l’esprit), mais oui, une telle œuvre a le même statut : elle n’est pas protégée par le droit d’auteur, donc elle son usage n’est pas protégé par la loi.

D’un certain point de vue, la question peut aussi se poser sur le code généré par IA.



Bien qu”il y ait une petite différence car dans le cas de GitHub Copilot, il suggère, il ne “code” pas. Dans sa version actuelle, c’est une auto-completion de luxe.



Cependant, d’autres modèles comme ChatGPT et Bing (et aussi GitHub Copilot X) peuvent produire un code complet à partir d’une demande ou d’un schéma logique. Si le développeur fait un copier/coller de ce code, ce code peut-il être lui aussi mis sous copyright ? La comparaison Stackoverflow ne me semble pas possible car si sauf erreur de ma part, le contenu du site est publié avec une licence précisée dans les ToS et dans tous les cas c’est censé être du contenu “humain” (même s’il me semble que maintenant le contenu IA est accepté, je crois).



Personnellement je ne me pose pas la question car je publie mes travaux personnels sous licence MIT, mais dans le cas de code propriétaire j’avoue être curieux.

Le 27/08/2023 à 13h 22

Et c’est reparti pour un tour. La machine à merde a été démarrée.

Le 25/08/2023 à 13h 45

Les bras m’en tombent.




L’entité a tenté de soumettre (.pdf) treize messages publicitaires entre le 4 et le 8 août, tous contenant des images créées à partir de Stable Diffusion ou Dall-E (donc des modèles d’intelligence artificielle générative). Tous contenaient aussi des propos incitant à la violence ou de la désinformation politique.


Il aurait été intéressant qu’ils ajoutent une version ayant une représentation considérée comme sexuelle par la plateforme. Il y a quelques années, un artiste avait dénoncé la modération à géométrie variable de facebook par ce moyen. Il avait publié une photo avec un modèle et une mise en scène sur laquelle un slogan antisémite datant de l’ère Nazi était affiché. Deux versions de la photo : une où la femme était couverte, une autre où elle était seins nus.



Je vous laisse deviner laquelle a été modérée.

Le 27/08/2023 à 13h 13

Le shérif de l’espace !

Le 27/08/2023 à 07h 37

Y’a pas un truc du genre “vrai + vrai” qui s’annule ? :transpi:

Le 25/08/2023 à 08h 55


(quote:2148787:alex.d.)
Honnêtement, je ne vois pas le rapport entre Facebook et la notion d’information.


C’est malheureusement la principale “source” d’information de nombreuses personnes de nos jours.

Le 26/08/2023 à 10h 54


Trooppper a dit:


Mediter sur une evidence c’est pas tres utile :fumer:


Dans ce cas une variation : la perte de l’humour est-elle un progrès ?

Le 25/08/2023 à 13h 40

Oups, désolé



Il y a un mot quand il y a un truc qui devrait être un crime mais pas d’intention, je croyais que c’était délit. Merci de m’avoir fait remarquer l’erreur. (enfin, il y a des exceptions pour le délit, mais ce sont des exceptions, donc erreur)



Quelqu’un a une idée de comment ça s’appelle ? (on dit juste acte illicite ?)

En France on a trois catégories d’infraction pénale :




  • Contravention : contrevenir à une règle ou norme en vigueur, indiscipline en rapport aux règles de vie commune (typiquement : laisser le caca du chien, griller un feu rouge, etc)

  • Délit : Infraction visant à transgresser une norme sociale importante (vol, drogue, violence aggravée, agression sexuelle, etc)

  • Crime : Infraction intentionnelle aux principes fondamentaux de la société (homicide, viol, mais aussi l’émission de fausse monnaie, etc)



Ce qui les caractérise est la hauteur des sanctions et la juridiction compétente (tribunal de police, correctionnel, cour d’assises respectivement).

Le 25/08/2023 à 09h 56


(quote:2148858:127.0.0.1)
(ah mon dieu, il se moque d’un pirate autiste. N’hésitez pas à signaler massivement ce commentaire. #psychophobie)


Bah, émettre une opinion sur un sujet, c’est être ce sujet-phobe.



Et ne pas émettre d’opinion sur un sujet, c’est être ce sujet-phobe.



Monde de merde.

Le 25/08/2023 à 08h 52

Euh, la traduction, c’est plutôt “il a été demandé au jury de statuer sur le fait qu’il a effectué ou non ce dont il est accusé, pas s’il l’a fait avec une intention criminelle”

Merci, la tournure ne m’était pas familière.

Le 25/08/2023 à 08h 00


Trooppper a dit:


Ah bah s’il est autiste, tout va bien.


Pas vraiment vu qu’il reste en détention. Il a été demandé au jury de statuer s’il a agit de manière intentionnelle ou non, et non de statuer sur la nature criminelle.



Enfin c’est ce que je comprends de cette phrase :




The jury were asked to determine whether or not he did the acts alleged - not if he did it with criminal intent.


Le 25/08/2023 à 07h 53


Kurtaj était en particulier accusé d’avoir divulgué des clips du jeu Grand Theft Auto VI, « l’une des plus grosses fuites de l’histoire du jeu vidéo et un cauchemar pour Rockstar Games »


Ah dans mes souvenirs c’étaient les sources du jeu qui avaient fuité.

Le 25/08/2023 à 16h 35

Juste pour préciser qu’il y a bien une différence entre la lutte contre les fausses informations et les contenus illicites.



J’estime que le fonctionnement de wikipedia est bon pour la lutte contre les fausses informations, et sur ce point je suis d’accord qu’il y ait une certaine régulation.



Ce qui m’ennuie c’est le retrait du contenu illicite. ça ouvre des possibilités d’abus et dans le lien que j’ai mis plus haut il y a des exemples (même en Europe).



Si je dois essayer de préciser mon point de vue, si à un moment wikipedia est verrouillé en Europe, comme ça se fait dans d’autres pays, par ce qu’il a été jugé qu’un contenu était illicite mais que wikipedia en s’en défend il y a un risque de bascule.
(j’essaierai bien sur de me faire mon avis en fonction du contenu, mais j’ai tendance à faire plus confiance au système wikipedia qu’aux institutions)



Je ne veux pas dire que wikipedia a le droit de mettre du contenu illicite en ligne, j’ai juste peur qu’un contenu soit jugé illicite “par ce qu’il ne convient pas” et que cette partie du DSA soit utilisée pour de la censure.

Concernant les abus de retrait, l’article 20 du DSA traite ce point et donne le moyen à la plateforme de bloquer les notifications dites abusives pour un “temps raisonnable”. Les plateformes devront détailler les conditions, quantifications et critères pour lesquelles elles estiment la notification abusive dans leurs CGU.



Ce sont des des données qu’elles devront ensuite publier annuellement.



Le texte du DSA est imbuvable, mais la synthèse de Marc Rees était plutôt claire :



nextinpact.com Next INpact



nextinpact.com Next INpact



Ces deux articles auraient dû être mentionnés, pour le coup ils me paraissent indispensables pour bien comprendre la portée du texte.

Le 25/08/2023 à 13h 20

Par ce que c’est sans but lucratif et que c’est destiné à l’éducation (au sens large). De plus il n’y a pas vraiment de démarche d’édition (sélection du contenu, mise en avant).



Le système obéit à des règles bien définies et Wikipedia ne pourrait pas bénéficier de la propagation de fausse information.



(au cas ou, désolé pour la redevance, j’ai lu 5% et pas 0.05%, donc c’est 130$)



Tu peux préciser en quoi ce n’est pas conforme ?




Si néanmoins un vandalisme reste en ligne, vous pouvez :



annuler la modification qui a mis en ligne ce vandalisme ;
nous laisser un message sur Wikipédia:Vandalisme en cours ;
ou nous envoyer un courriel à l’adresse [email protected], en prenant soin de préciser l’URL de la page (l’« adresse Internet », habituellement affichée au dessus de la page dans le navigateur Web sous la forme https://fr.wikipedia.org/…).


Chaque utilisateur a la possibilité de supprimer directement le contenu.
Il est possible de contacter wikipedia pour demander le retrait.



Il y a également la possibilité de contacter directement l’auteur, ce qui semble être prévu si j’ai bien compris les informations du lien que tu m’as envoyé.

Le fait que Wikipedia soit un organisme à but non lucratif ne l’exempt en rien de ses obligations. Ca serait un peu facile de monter une assoc et de diffuser des saloperies et de ne pas être inquiété au motif que ce soit non lucratif. (cf les associations démantelées par le Ministre de l’Intérieur dernièrement)



Je peux parfaitement concevoir que pour sa propre morale et l’affectif que suscite cette plateforme comparée aux autres cela surprenne. Mais il n’empêche que Wikipedia est un vecteur de désinformation parmi tant d’autres à cause du vandalisme de son contenu (je pense que cette phrase sera mal interprétée par les personnes aux capacités cognitives limitées). Même si sa communauté est réactive, et c’est tant mieux, cela reste un problème auquel elle doit faire face très, trop même, souvent.



Et si, Wikipedia a une ligne éditoriale puisque les contenus doivent répondre à des critères d’admissibilité. Et des contenus sont mis en avant sur la homepage : “Article labellisé du jour”, “Image labellisée du jour”, ainsi que des actualités. Il y a également une sélection d’articles et de thématiques. Ce sont des choix communautaires, mais in fine, c’est un choix éditorial. Un article random quotidien l’aurait été moins.



Après oui, ça reste un site éducatif et encyclopédique. Ce qui le responsabilise encore plus de mon point de vue puisqu’il a cette aura de confiance(comme je disais : beaucoup croient qu’il détient la Vérité absolue, ce qui est faux).




Le système obéit à des règles bien définies et Wikipedia ne pourrait pas bénéficier de la propagation de fausse information.


Ce n’est pas une question d’en profiter ou non. Le DSA responsabilise les grandes plateformes quant aux risques d’être des vecteurs de contenus illicites, y compris malgré elles. C’est ce que le règlement considère comme étant une “utilisation abusive” si je me rappelle bien (il est un peu imbuvable comparé au RGPD).

Le 25/08/2023 à 11h 35


misocard a dit:


En sois, si wikipedia fait partie du cadre de cette loi, peut être qu’elle est mal faite.


Pourquoi ?



En quoi le contenu illicite qui circulerait sur Wikipedia devrait avoir un traitement différent du contenu illicite circulant sur les médias sociaux et autres plateformes répondant à ces critères (45 millions d’utilisateurs actifs par mois) ?

Le 25/08/2023 à 10h 53

Le point qui sera le plus problématique pour wikipedia ce sera la suppression à la demande des contenus illicites.




Les entreprises devront retirer « rapidement » les contenus illicites lorsqu’ils seront notifiés par les autorités nationales ou des particuliers


J’ai tendance à être Euro convaincu, mais si ils touchent à wikipedia je change de bord …



(et 0.05% c’est quand même 130 000$)

J’ai du mal à comprendre : Wikipedia doit avoir des contenus illicites ?

Le 25/08/2023 à 13h 28

Ah bah ça c’est une autre histoire. Perso je n’ai pas utilisé ownCloud depuis le fork de Nextcloud (et je n’utilise plus Nextcloud) donc je m’en fous un peu à vrai dire.



L’appli est effectivement livrée en container, mais ça exclu de fait les hébergeurs Web mutu oui. Donc les solutions sont plutôt dédié (overkill pour cet usage), VPS/machine virtuelle sur cloud public, ou éventuellement runtime container en PaaS sur un cloud provider adossé à un storage managé.



Bon certes, c’est pas le particulier lambda qui va s’installer ce serveur sur un cluster kubernetes, mais plutôt un revendeur de la solution.



Parmi les liens que j’ai donné, il y a des articles de 2023. Et apparemment tout le front a aussi été réécrit.

Le 25/08/2023 à 11h 10

Si c’était pas le cas, ça va le devenir. Ils ne supportent pas PHP 8… (ils restent en 7.4 qui n’est plus supporté par la PHP…)

ownCloud avait annoncé en 2020 arrêter PHP et réécrire la plateforme en Go.



Il s’agit de la version Infinite Scale qui peut être téléchargée séparément. Mais à noter qu’ils indiquent fournir du support PHP 7.4. N’utilisant pas ownCloud je ne sais pas ce que ça signifie exactement.



Mais je pense que c’est aussi une façon de promouvoir le rebuild de l’application.

Le 25/08/2023 à 08h 50

Travaillant souvent en tant que sous-traitant d’institutions de santé publique, j’ai la vision des ST. Quand tous tes clients t’envoient un formulaire différents demandant les mêmes informations, cela peut être pénible & chronophage de devoir remplir tous leur trucs.
Nous avons pourtant des documents standard mais on sent quelques fois la flemme les envahir et le document n’est pas lu.



Pour le cas que tu cites, je me dis que cela leur demande beaucoup d’efforts pour rassembler les informations demandées et ils sont énervés qu’ils aient à faire ça (ce n’est pas leur boulot après tout…). Je pense que ça révèle simplement que les boites concernées sont immatures sur leur système d’informations et n’ont pas pris le temps et l’énergie de documenter.

C’est effectivement un problème cette absence de standardisation des documents (il serait intéressant que la CNIL produise un questionnaire type si ce n’est déjà fait). Et je la vois même en interne dans les entreprises où les architectes et la sécurité ont généralement pour ainsi dire 40% de questions communes envoyées aux éditeurs lors des appels d’offres.



Du point de vue de l’entreprise candidate à l’appel d’offre, c’est effectivement déroutant.

Le 25/08/2023 à 08h 05


swiper a dit:


Ce n’est pas encore entré dans les moeurs de demander toutes les mesures de sécurité aux nouveaux sous-traitants. De mon expérience personnelle, la santé publique fait de gros efforts pour récupérer ces informations depuis peu. Je pense que pôle emploi a fait ses devoirs ou du moins je l’espère.


Non seulement ça n’est pas dans les moeurs (cf les expériences professionnelles que j’ai partagé), mais en plus du dois te battre pour ça. Comme si prévenir de la mise en danger de la responsabilité juridique de l’entreprise était une anomalie :craint:



Une bonne partie du temps, je passe pour le connard qui empêche d’avancer.

Le 25/08/2023 à 07h 46

Alors, on se plaint que Pole Emploi fait mal son taff et ne cherche pas pour les demandeurs.



Et maintenant qu’ils arrosent pour présenter les profils en masse on se plaint, faudrait savoir !



Blague à part, c’est malheureusement le risque de toutes ces bases de données centralisées contenant énormément d’informations personnelles et confidentielles. Et est-ce que les prestataires chargés de les traiter ont été bien audités avant ? Je sais que certaines entreprises le font de manière assez poussées, d’autres se content d’une ligne dans le contrat.



Et sur ce point, j’ai retoqué plus d’un projet qui comptait élargir le scope de traitement de données confié à un prestataire en ajoutant des données perso sans même avoir étudié la capacité du presta à le faire (et c’est comme ça qu’on fini avec de la donnée perso ou critique chez AWS aux USA, youpi).



On a du mal à s’en rendre compte quand on est dans la technique pure, mais une bonne partie des points d’attention sur un projet IT sont clairement d’ordre juridique.

Le 24/08/2023 à 19h 06


gagaches a dit:


ça a créé une situation de monopole. c’est interdit :D


Amazon et Google sont en position dominante, pas en monopole. Un monopole c’est un acteur unique sur un marché.



Le monopole n’est pas interdit.



Au même titre que la position dominante.



Ce qui est interdit, c’est d’abuser de se position dominante.

Le 24/08/2023 à 16h 55

Je saisis peut-être pas bien la question : pour du code open-source sur github, le repo va contenir les tests unitaires (ou autres), et doit pouvoir fonctionner en autonomie.
Pour répondre à @SebGF: si comme tu proposes les tests dépendent d’un gestionnaire de secrets ça complexifie la mise en place de l’environnement (y compris sur chaque machine de dev qui voudrait lancer localement les tests) et je ne suis pas sûr de voir le bénéfice au final



Précision : je ne parle pas d’un environnement de test persistant, mais bien d’un environnement qu’on setup et shutdown à la volée pour le test

OK je vois c’est juste un jeu de test exécuté sur une instance éphémère. Après comme tu l’as dit, les données sont fausses et inexploitables.



Cela dit, les infos de type credential (même fausses) peuvent dans ce cas être passées par injection au moment de l’exec (passées au container via environment par exemple) sur le poste de dev et ainsi éviter de commit ces valeurs aussi inutiles soient-elles. Et ce même sans passer par un gestionnaire de secrets.

Le 24/08/2023 à 15h 21


jotak a dit:


Il peut y avoir plein de raisons… Par exemple, pour tester une communication en mtls, il va falloir fournir des fakes certifs/clés


Il ne serait pas possible de les injecter lors du pipeline de test depuis un gestionnaire de secrets ?

Le 24/08/2023 à 06h 23

J’imagine que c’est pour tester des valeurs passées ?



Dans tous les cas il y en a où cela est “justifié” par la finalité du projet. Typiquement, on ne va pas considérer OWASP comme mauvais élève pour avoir créé des projets volontairement vulnérables à des fins de démonstration de pratiques à risques.



Genre Terragoat où les fichiers variables contiennent des credentials AWS ou Azure valides sur le papier (mais révoqués) et autres applications extrêmement vulnérables.



Evidemment, la personne qui souhaite déployer ces applis … Bah have fun. Mais dans ce cas là autant publier ses credentials Cloud sur son profil facebook ou linkedin si le but est de gagner plein de copains Eurasiatiques qui viennent squatter la sub et faire péter les scores du billing :dd:

Le 24/08/2023 à 08h 52

Alors ça ça peut m’intéresser, je n’ai réussi à le faire fonctionner qu’en local pour un accès via internet je suppose que tu parle de mettre en place un VPN chez soi pour s’y co et jouer ? Sinon si tu as une technique plus “simple” (non pas que ça soit vraiment compliqué) je suis preneur :mrgreen:

Non du tout, suffit de lancer le client steam sur la machine qui va recevoir le streaming. Officiellement Steam Link supporte via Internet. Je l’ai essayé une fois pour voir en mettant un PC portable en partage de connexion mobile et je n’ai pas eu spécialement de chose à faire.



Regarde du côté de la FAQ si t’as des soucis : help.steampowered.com Steam



Après il semblerait que tous les jeux ne le supportent pas. Jusqu’ici je n’ai pas eu de soucis personnellement, mais j’ai pas non plus essayé toute ma bibliothèque :transpi:



Perso mon cas d’usage reste majoritairement local aussi. Quand je veux jouer sur la TV, je lance Steam sur le HTPC (manjaro) et le PC de jeux exécute derrière. A noter que je n’ai pas réussi à faire marcher la manette Xbox One “pour PC” que j’utilise, elle reste physiquement connectée au PC de jeu.

Le 23/08/2023 à 20h 42

Les boîtes noires restent en tout cas une très bonne raison de ne pas faire héberger ses serveurs en France… sérieusement, ce pays empile tellement les textes liberticides que ça commence à vraiment être de la folie que d’y héberger encore de services. Entre les coupures arbitraires, les hacks légaux, et vos services de renseignements en complète roue libre (RIP CNTCR) …

Il faudrait héberger où dans ce cas ?