votre avatar

ndjpoye

est avec nous depuis le 31 janvier 2006 ❤️

2489 commentaires

Le 14/06/2020 à 19h 17







Ricard a écrit :



Non. Un parti politique français ne reconnait jamais ses erreurs. Il s’enfonce, creuse, et quand il arrive au fond, continue de creuser.<img data-src=" />





<img data-src=" />


Le 14/06/2020 à 19h 15

Ils ont fait tester par des militaires en situation (dont le métro) mais, je ne crois pas qu’ils aient publié les résultat :s

Le 13/06/2020 à 19h 21

Lol. Punaise de auto avec apprentissage de mon telephone snif



Oui, je fais plus de sms au sujet de ma mère que de mon maire <img data-src=" />



Nb :c’est la saisie par geste de SwiftKey

Le 13/06/2020 à 17h 42

Oui c’est ça, c’est la techno dont je doute, pas de la technique de santé.



Après le côté “societal” me plaît pas non plus. Ca me rapelle les caméra dans les rues qui ont eu le droit à une levé de bouclier au début et qui maintenant sont banalisés et que le moindre mère de village peut installer. Mais on, on verra bien :)

Le 13/06/2020 à 17h 35

Très clair, thk


Le 13/06/2020 à 15h 25

Je profite de ton expérience pour essayer de creuser un questionnement que j’ai depuis que j’ai vue ces urgentiste réagir sur le sujet.



Ce type de respirateur pourrait il servir d’après toi à traiter d’autres type d’urgence et donc à libérerer des appareils plus “pointus” pour pouvoir les utiliser dans des citations où ils sont absolument nécessaire (comme le covid).

Je sais pas si je suis bien clair, et je veut juste savoir si mon raisonnement te semble logique vue ton expérience ou si je me trompe dans ma réflection purement théorique 1. :)

Le 13/06/2020 à 15h 19

Fausse manip

Le 13/06/2020 à 15h 12







Quiproquo a écrit :



En revanche, ils sont probablement peu adaptés à la phase initiale du SDRA COVID, qui nécessite un contrôle fin des pressions, mais ça on l’a découvert progressivement.





Merci pour l’info.


Le 13/06/2020 à 15h 11







carbier a écrit :



Le problème est donc que tu n’as pas compris qu’il s’agissait d’une brique.

Même si l’appli est peu utilisée, elle décélera quand même des cas contacts. Peut être même des cas contacts que le contact tracing humain n’aurait pas trouvé. A combien de cas positifs trouvés sera-t’elle utile ? A partir de combien de chaines de contaminations coupées sera-t’elle utile ?



Pour rappel, en France on oscille actuellement entre 500 et 700 nouveaux cas par jour.





Si si, c’est pas parce que je partage pas ton avis que ça empêche que j’ai bien compris. Ca ne change ni mon questionnement sur les problèmes sociétaux, ni sur la pertinence de la solution technique choisie (Bluetooth). Donc le nombre de cas ne répond pas à mes questionnement et donc au fait que, ce soit une brique importante.


Le 13/06/2020 à 09h 09







Faith a écrit :



Personne ne l’a jamais présenté comme “la” solution, ne te laisse pas avoir par les commentateurs de NXI&co.

On a toujours expliqué que c’est une brique (intéressante) de la solution.





Pour moi la question principale (hors celle portant sur des sujets plus sociétaux, qui à elles seules me font dirent non à l’appli) est justement de savoir si c’est vraiment brique intéressante où est ce que ça ne sert à rien. Est-ce que la solution technique choisie pour savoir si l’on est des contacts à risque est pertinente ? Si oui (perso je pense que non), quel est la quantité d’utilisateur nécessaire pour que ce soit utile et est-ce que ce nombre d’utilisateur est atteignable ?


Le 13/06/2020 à 07h 58







Patch a écrit :



Ah tu parles de ces 8500 unités qui ne serviront absolument à rien car pas du tout adaptées (respirateurs mobiles d’ambulances, alors qu’il fallait des trucs fixes plus puissants)?





Tu remarqueras que fin avril, quand c’est sortie, les articles “source” étaient au conditionnel (pourraient être inadapté).

Depuis, à la différence des problèmes avec les masques, on en entend plus vraiment parler même par l’opposition, ce qui est intrigant.

Et à leur sujet à l’époque, t’as quand même eu le droit à certains médecins, comme un chef de service des urgences alsacien (de Mulhouse je crois me souvenir), qui disaient qu’il voyait très bien comment il aurait pu les utilisés s’il en avait déjà été doté.

Et, “hasard heureux”, il s’avère que pour soigner les problème engendrés par le covid, la puissance est au final contre productive (ça veut pas dire que c’est 8500 unités le sont assez).

Donc, depuis la première annonce, j’ai l’impression que le conditionnel est toujours de mises pour le moment.


Le 13/06/2020 à 07h 19







Lablab a écrit :



Bonsoir ndijpoye, je ne sais pas de quels respirateurs tu parles.



Je n’ai juste pas une mémoire de crabe comme certains et je réalise encore que des soignants ont du choisir qui auraient droit aux respirateurs ou pas …



Porte toi bien





D’accord. En fait Carbier parle des achats d’urgences fait par l’état. Pour les respirateurs, ça a surtout été la commande de fabrication passé à Air Liquide. Je pensais donc que tu parlais de ça et que donc t’avais peut-être des retours sur leur livraison. Vue que depuis fin avril je n’ai pas trop vue passé d’info sur le sujet, j’ai crue que t’en avait peut être.



Mais au final tu as l’air de faire référence aux respirateurs dont aurait déjà dû être doté le système médical en cas de crise. Sur ce sujet-là en fait, ce n’est même pas qu’un problème de respirateur, c’est un problème de dimensionnement du système d’urgence et de réa et donc de l’équipement qui va avec. La chasse purement comptable aux lit vides et au matériel “peut utilisé” à fait très mal. Et au passage, transféré la gestion de crise sanitaire des préfectures aux ARS n’as pas vraiment été très judicieux non plus.


Le 12/06/2020 à 20h 59







Patch a écrit :



Ils sont arrivés de Chine. Et ils étaient totalement pourris (se déchirent plus facilement que du PQ…). Sachant qu’ils ont recommandé là-bas, alors que les fabriquants francais ont des stocks à ne plus savoir qu’en faire maintenant.





Relis, c’était à propos des Respirateurs ma question.


Le 12/06/2020 à 20h 35







Lablab a écrit :



Et les respirateurs tu les a eu ?





Pourquoi, des nouvelles comme quoi ils ne sont pas arrivé ? (c’est pas ceux promis par Musk aux USA)


Le 12/06/2020 à 15h 06

Je suis d’accord pour le privé. Mais c’est à l’état de soit faire le stock à l’eut place soit de leur imposer et de les contrôler..

Le 12/06/2020 à 14h 28







Ricard a écrit :



Ben, l’état est un peu (beaucoup) responsable de cette crise. Genre nous dire que les masques ne servent à rien, allez au théatre et continuez de vivre normalement, tout va bien.

Si l’état avait eu les stocks de masques comme il aurait dû, la crise aurait été largement moins grave.





Largement moins grave ça, on n’en sait encore pas grand-chose.

Par contre, que l’état (au sens premier du terme) aurait dû avoir des masques pour ses services qui en avaient besoin en période de crise sanitaire, c’est clair que ça aurait udiminuer la gravité.



Le 14/06/2020 à 17h 57


David_L a dit:


On verra dans les faits, mais il ne faut pas croire que parce que le développement console est fait sur SoC AMD, ils finiront devant dans les jeux pour les trois prochaines années, la génération actuelle l‘a bien montré


En fait pour la génération actuelle, je pensais surtout que les partenariats &quot;editeur/constructeur&quot; pouvaient partir à l’avantage d‘AMD, vue sa forte présence sur console, donc plus de mise en avant des fonctions qui leur était, au moins un temps, spécifiques. Ce n’a pas été le cas.

Le 14/06/2020 à 07h 10


horrus a dit:


c‘est pas nouveau que le marché pc est dominé par les nivida, mais comme les développeurs auront deja produit le code pr les 2 gpu amd raytrcing des 2 consoles j espére que ca leur facilitera le portage console -> pc , je &quot; touche du bois&quot; pour que ca se passe ainsi j ai pour projet de changer de config pr me faire un pc ryzen gen 3 ou gen 4 + radeon navi 2 raytracing ^^


Oui c’est pas nouveau. Pour la facilité vers la radeon, je me suis fait le même espoir avec la génération actuelle, c‘était un argument parmis d’autre qui m‘avait fait prendre un GPU AMD mais, ça n’a rien changé en fait :transpi:



Tu ne peux pas faire un projet optimiser au petit oignon si tu es multiplateforme. Même entre Xbox et ps y a des différences dans les composants. Alors en plus avec le PC, tu hérites des archis différents. Enfin techniquement c‘est toujours faisable mais, niveau coût….

Le 13/06/2020 à 09h 27


Dj a dit:


Il n‘est pas au courant qu’une même puissance mais avec une architecture spécifique (et des jeux conçu pour cette architecture) permet d‘avoir de meilleur perfs qu’un &quot;pc équivalent&quot;


Ca reste totalement vrai pour les titres exclusifs quand la boite se sort les doigts des fe??es. Pour les titres multiplateformes, c‘est plu tout à fait le cas, Tu ne pourras pas, par exemple, trop exploiter les particularités des contrôleur graphiques AMD car, il faudra que ton jeu tourne bien aussi sur les NVidia qui étaient (et le sont toujours je crois) fort présentes sur les PC.

Le 13/06/2020 à 07h 44







Patch a écrit :



Dans l’immédiat. Pour ca que j’ai dit qu’ils attendent que le marché soit mûr.





En fait, je ne suis même pas sûr qu’il soit un jour mûr pour qu’ils jugent que ce soit rentable pour eux.

Mais oui tu dis bien mise en place potentielle, donc on est probablement d’accord :)


Le 12/06/2020 à 21h 18

Ils y ont peut-être pensé mais rien ne dit qu’ils en ont conclu que ce serait plus rentable pour eux.

Le 12/06/2020 à 14h 17







Patch a écrit :



Non mais on y vient peu à peu. On est déjà passé de la Creative Suite au Creative Cloud par abo, 1ere étape du Saas (plus possible d’acheter de licence). Prochaine étape : hébergement total.





Peut-être.



Ou alors ils ont décidé de faire comme Microsoft avec Office, passé au modèle abonnement, donnant accès à des appli installé sur l’ordi, des appli sur smartphone/tablet et des appli sur le web.



Ils ont donné des pistes quant à ce qu’ils envisageaient pour l’avenir ?


Le 11/06/2020 à 21h 33







Patch a écrit :



Abonnement à réactiver tous les 5 mois, sinon tu ne peux plus l’utiliser.





D’accord, merci.

Donc on en est pas au saas totalement hébergé qui ne réclamerait aucun portage. Je comprend mieux


Le 11/06/2020 à 12h 55

Je n’étais pas allé simplement dans l’onglet download/MacOs <img data-src=" /><img data-src=" /> <img data-src=" />



Je me demande pourquoi ils n’en ont pas profité pour investir plus de ressource et au moins faire une version VS Linux. Problèmes techniques (ou trop couteux en ressources por les régler) ou simple positionnement commercial ? <img data-src=" />

Le 11/06/2020 à 12h 16







tiret a écrit :



VS Mac est en fait un MonoDevelop enrichi. VS PC n’a rien à voir en dehors du nom.





Je sais qu’il n’a pas de lien de parenté (come VS code en fait). Ma question est de savoir pourquoi il n’est pas proposé sur windows si il est full dotNet. Ça pourrait compléter l’offre commerciale, avec un investissement minimum pour microsoft. Ca pourrait même passer sur Linux.

Tu dis que c’est un MonoDevelop car c’est une reprise de ce projet ou c’est juste pour expliquer comment il est positionné ?


Le 11/06/2020 à 09h 56







Patch a écrit :



Oui comme toute la gamme Creative Cloud. D’ailleurs il n’existe plus qu’en Saas à ma connaissance (comme le reste du CC), ce qui provoque pas mal de problèmes quand on doit équiper des machines qui ne sont pas reliées au net…





C’est à dire, tu l’installes plu ou t’es “juste” obligé d’avoir une connexion permanente pour un logiciel local ? Ca se passe comment pour l’impression ?


Le 11/06/2020 à 07h 11

Désolé, j’aurais pas due posté hier soir, je vais la refaire en plus clair.

VSCode est assez jeune et est prévu depuis le début pour être mutiplateforme.

VS MAc est aussi un produit récent. Mais le fait qu’on ait pas accès à cette version sur PC me fait douter de la simplicité de la migration quasi transparente.

MsOffice contenant assez de dotNet (il en contient ?) pour une migration sans douleur ? Le fait que les versions Mac/Pc n’ai pas fusionné, au moins pour les logiciels existant sur les 2 m’en fait douter. Ce serait d’ailleurs bien dans l’idéal, il pourrait en faire plus facilement une version Linux.

Il reste plein d’autres type de produits : les logiciels adobes, Filemaker, Auto tune, etc….



Le problème n’est pas seulement de savoir si des techs matures multiplateforme existantes. Java existe depuis 1995. Son existence n’a pourtant pas empêché les problèmes lors du passage du PowerPC vers Intel.

T’as principalement un problème de coût de la migration. Une réécriture, ce n’est pas gratuit en ressources. Il faut que tu penses à réécrire toutes les fonctions qui sont utilisés, faut que tu penses a faire aussi évoluer le fonctionnel de ton nouveau produit (faut bien satisfaire le client) et si la migration te prends du temps, il faut aussi que tu fasses évoluer la version “d’origine” pour continuer à satisfaire les clients et à rentrer de l’argent.

Si ma mémoire la réécriture de IPhoto ou Imovie avait créé des soucis car justement, des fonctionnalités avaient disparues.

Tout ça n’est pas qu’une question de savoir si des framework performant multiplateforme existent et est-ce que certains dev ont envie de dev dessus.

Après, on peut parier aussi sur des appli hébergées à distance mais, est ce que le client est près pour celà et, si oui, qu’est ce qui va le pousser à acheter une machine puissante dans ce cas ?

Le 11/06/2020 à 06h 11







Girthham a écrit :



Les gros éditeurs migrent leurs logiciels vers le saas. Problème réglé





Une version Saas d’InDesign existe ?


Le 10/06/2020 à 21h 34







grsbdl a écrit :



Tous les produits JetBrains (IntelliJ, Android Studio, PhpStorm, CLion, etc) -&gt; Java. Idem pour la plupart des IDE concurrents.



 Visual Studio code et plein d'autres : Electron.       

Visual studio : dotnet.

MS Office : en bonne partie dotnet.

La plupart des outils de dev sont pensés cross-platform. La bureautique fait aussi de grands efforts pour s'adapter, lorsqu'elle ne l'est pas déjà (navigateurs web).

Reste à voir si les logiciels orientés mutimedia (image, son, vidéo) suivront, mais grosso-modo, le cross-platform ne fait plus du tout peur aux devs, c'est réglé à 99% si tu as choisit les bonnes technos.







J’ai un doute sur office et VS en dotnet.

Il te reste plein d’outils multimédia, il te reste filemaker, les appli d’édition, etc….

Je suis pas du tout convaincu que l’existant puisse suivre grâce aux techno que tu sites.



Le fait que ça fasse pas peur au, dev n’enlève pas les autres problèmes, dont en premier lieu la réécriture quand l’appli a déjà quelques années. Après, pour certaines choses, les perf de certaines solution que tu site ne sont pas forcément au top (ou pas depuis assez longtemp).



Nb ou la, je fatigue <img data-src=" />


Le 10/06/2020 à 15h 31







grsbdl a écrit :



On fait de plus en plus de code managé (java, dotnet, nodejs/electron, etc) et les compilations/libs cross-platform se sont largement démocratisées. Cela facilitera migration, si désir de migration il y a ;-)



   On est loin de l'époque où il fallait dev pour chaque archi et génération.







Je ne suis pas convaincu que ces tech là soient si présentent sur les appli “pro” tournant sur mac.

Par contre, Apple étant le maitre d’Xcode, et avec l’expérience déjà acquise, ils trouveront peut-être comment faciliter la chose.


Le 10/06/2020 à 12h 33







misterB a écrit :



Et Intel a été la plus longue





On savait qu’ils étaient bien équipés <img data-src=" />


Le 10/06/2020 à 09h 04







hachu21 a écrit :



c’est une sacrée mauvaise nouvelle pour Intel, non?

Non pas qu’Apple leur permette d’écouler un gros volume de puces; mais c’est surtout un signal fort sur le marché qui dit que le futur du X86 comme architecture dominante à sérieusement du plomb dans l’aile.





Je ne sais pas si le fait qu’Apple migre soit un signal si fort que ça. Ils vont quand même vers un composant produit par eux même. A voir :)


Le 12/06/2020 à 14h 53







Jarodd a écrit :



Même en nettoyant sa boite mail régulierement, 3 ou 5 Go c’est bien peu, elles sera vite pleine. Avec les Gmail et autres boites à pubs, on a pris l’habitude depuis des années à conserver tous les e-mails, d’autant plus que si on fait une migration, il faut la place d’importer tous ces messages. C’est une des raisons qui m’a poussé à mettre mes e-mails chez Infomaniak, avec l’espace illimité.





Bof. En boite perso j’en suis à 0,63 Go avec des mail qui datent presque du siecles derniers.

Au boulot, à titre perso je n’ai jamais dépassé les 2Go, sauf retour de congés.



Ma solution : coté perso, hors de question de recevoir les x mails de conneries des proches où t’as de grosses images ou d’énnorme powerpoint.

Au taf : faire attention quand on répond à inclure les pièces jointes seulement si nécessaire. La plupart des cas où j’ai eu des collègues qui avaient leur boite pleine était du à des conversasions qui contenaient plusieurs exemplaires des mêmes pièce jointe parce u’ils avaient pas fait attention au moment de répondre. Et les fichiers et mails à conserver doivent pas rester dans la boite (c’est pas un système d’archivage).



Jene dis pas que mon cas est universel mais, 3 ou 5 go, ça peut suffire à certains sans faire de gros effort.


Le 12/06/2020 à 07h 38







alex.d. a écrit :



Le Plan Informatique pour Tous, c’était du Thomson, pas du Bull. 

Et à l’époque, ça avait peut-être coûté du fric, mais au moins ça marchait : je suis désespéré de constater que moi, à l’époque, j’avais fait beaucoup plus d’informatique et beaucoup plus poussé que ce que font mes enfants maintenant 30 ans plus tard…





Marché, marché, je pense que ça dépend de l’endroit. Moi ça m’a juste permis de faire quelques heures de Turtles.

Après, je pense que le problème est que le système éducatif avait investi dans le matos mais pas assez dans la formation des enseignants.

C’est peut-être la même situation maintenant.


Le 11/06/2020 à 21h 42

Oui en fait je suis d’accord avec toi pour le télétravail. C’est sur le principe que ce sont souvent des ordi (portable ou bureau) qui ont été utilisés pour cela alors qu’il y a quelque temps on annonçait la mort de ce marché.

Pour la fin des années 90, je pense qu’on parle du même phénomène au fait, car ces terminaux Java devaient “exploser” en étant connecté en permanence, que ce soit en entreprise ou à la maison. Et leur avantage devait être la baisse du prix du matériel (et un renouvellement moins fréquent).

Le 11/06/2020 à 15h 42

Merci pour l’info. Je connaissais pas et je regarderais.

Le 09/06/2020 à 17h 41







brice.wernet a écrit :



Bien sûr, mais n’est-ce pas justement la victoire du “libre”? Le x86 s’est démocratisé parce que le IBM PC (cloné) s’est démocratisé. Là où les autres constructeurs jouaient sur une fermeture de la machine, IBM s’est fait prendre à son propre jeu, propulsant Intel et Ms au sommet.





Pour rentrer un peut plus dans le détail, si je me souviens bien, IBM avait fermé un verrou qui était central : le BIOS. Il pensait tenir les clef grâce à lui. Sauf que Compaq, et aussi Phoenix ont fait sauter ce verrou. Qui sait ce qui se serait passé sans cette erreur.

C’est clair que la démocratisation des “PC compatibles” en entreprise a été le point fort de la domination de cette architecture.


Le 09/06/2020 à 17h 27







127.0.0.1 a écrit :



Merci à Intel (et IBM) d’avoir permis l’essor du “personal computing” et tenté d’abolir le modèle terminal/server qu’on tente de nous revendre sous forme de web2.0/cloud.







A ben oui, ce modèle-là, régulièrement il tente son retour. T’avais déjà eu une tentative de retour. Tout un foin dans la presse spécialisée vers la deuxième partie des années 90 avec les projets d’ordinateur “tout java”, avec des puces dédiés, et que tout quasiment serait calculé sur un serveur. Ca n’a pas pris, rien d’étonnant.

Maintenant c’est le Web 2.0 un tant “aidé” part la mort annoncée des “Personnal Computing” à l’avantage des tablettes. Et pourtant, nos “PC” sont toujours là. Et si le télétravail s’enracine dans nos habutides, sa disparition ne sera pas encore pour cette fois <img data-src=" />


Le 11/06/2020 à 06h 38







deathscythe0666 a écrit :



Quel tsunami ? Si tu parles de celui de Fukushima, il n’a rien montré si ce n’est l’insouciance de Tepco (ils avaient été alertés du danger, en 2008, et n’avaient rien fait), et le manque d’indépendance de l’autorité de sûreté nucléaire japonaise (son verdict était de fermer, mais le gouvernement japonais a malgré tout autorisé la poursuite de l’exploitation sans action corrective autre que la mise en place d’un centre de réponse).



Idem, alors que les centrales françaises et américaines sont dotées de recombineurs d’hydrogène depuis TMI, Fukushima (et peut être d’autres) n’en avait pas, ce qui a entraîné la séparation de l’eau en H2 et O2 dans l’enceinte, et nécessité de relâcher la pression brutalement (avec fuite de radioéléments).



Il est d’ailleurs intéressant de noter que d’autres centrales nucléaires, plus près de l’épicentre du séisme et du tsunami, n’ont pas eu ces problèmes. Une de ces centrales a servi de refuge à la population environnante.



Concernant le pétrole, je te dis bien qu’en se basant sur le pétrole (et d’autres choses, les géologues s’intéressent à toute la planète), on sait plutôt bien étudier quelles zones sont stables ou ne le sont pas. Il ne s’agit pas de contenir des matières radioactives (ce ne sont pas des gaz ou des liquides), mais d’empêcher l’eau d’atteindre le stockage trop vite. À l’échelle géologique, ce n’est pas si dur, 100000 ans ce n’est pas très long.





Le tsunami est un exemple. Suite à cet évènement, les règles sur les risques sismiques pour les centrales ont encore changé, indépendamment de la mauvaise gestion de Tepco. C’est d’ailleurs constant dans le nucléaire, les règles de protection contre les évènements naturels évoluent régulièrement. Parce que les connaissances et la situation évolue.

Il me semble aussi qu’il y a des études qui ont commencé à mettre en doute la pérennité des conteneurs sur la durée. 100000 an, à l’échelle géologique ce n’est pas long. Mais c’est souvent en direction du passé. Là on demande de réfléchir à plein de paramètre pour 100000 ans dans le futur, une situation déjà bien moins habituelle. Et ce n’est pas qu’un problème de géologique mais aussi d’autres sciences, comme la physique des matériaux.

Je répète, je ne sais pas quelle est la solution la moins risqué. PAr contre, laissé croire que le sujet est totalement maitrisable, c’est pas réaliste.


Le 10/06/2020 à 12h 28







deathscythe0666 a écrit :



Pourquoi cette comparaison serait-elle incorrecte ? Les géologues savent identifier des zones stables pendant des millions d’années, comme ce qui a permis à des gisements de pétroles de rester stockés des millions d’années. Je n’ai pas dit que 100% du pétrole formé à l’origine était resté en sous sol (les zones pas imperméables le laissent fuir, et ce n’est pas là qu’on doit installer du stockage géologique longue durée).



Relis moi, à aucun moment je ne dis que les géologues ont une connaissance parfaite de tout, tu utilises un faux argument (on n’a pas une certitude de 100%) puisqu’il est impossible de garantir à 100% qu’il ne se passera rien.





C’est en ça que je te dis que ta comparaison n’est pas bonne. Tu compares quelque chose où, vue que le pétrole s’est formé, on est sûr que les conditions ont été optimale pour que ça se produise à quelque chose où l’on doit essayer de prédire une stabilité dans le temps en fonction de nos connaissance actuelle.



Je ne dis pas que dans le sol ça ne fait pas courir pas moins de risque d’imprévus que le stockage en piscine. Je dis juste que constater l’existance de poche ayant tennu dans le temps pour permettre que le pétrole se forme ne démontre rien quant au fait de chercher avec nos connaissances actuelles une poche qui serait potentiellement assez stable pour contenir des matières radioatives.



Le Tsunami nous a montré que les connaissances qu’on avait de la nature à une époque pouvaient êtres remises en causes quelques années plus tard.


Le 09/06/2020 à 19h 25







deathscythe0666 a écrit :



C’est pour ça qu’on a demandé à des géologues de trouver une zone qui tienne la route plutôt que de faire des trous au hasard <img data-src=" />



D’ailleurs, petite anecdote marrante. Dans les années 90, C’est pas sorcier a fait une émission sur les déchets nucléaires et y dénote le retard de la France sur le stockage profond par rapport à l’Allemagne. Quand on sait aujourd’hui comment ça a été fait en Allemagne (à l’économie de bouts de chandelles, dans des mines de sel !!), ça fait sourire.





Donc tu fais une comparaison qui est incorrecte en tout connaissance de cause.

Et on considère que les géologue ont fait le tour de leur domaine et ont une connaissance parfaite., puisqu’il sont comparés aux poches de pétrole



C’est la comparaison avec le pétrole qui est incorrecte.


Le 09/06/2020 à 13h 10







deathscythe0666 a écrit :



Quant aux déchets, on a quand même une assez bonne idée de ce qu’il s’y passe dans un stockage profond dans une zone géologique stable : dans la durée depuis laquelle Oklo existe, et celle, plus courte (on parle de dizaines ou de centaines de millions d’années quand même), qui a présidé à la formation du pétrole, et à son maintien sous terre malgré des propriétés physiques beaucoup moins sympa pour le stockage qu’un fût de déchets, il y a eu plusieurs centaines de milliers d’espèces qui sont apparues puis on disparu (dont les dinosaures qui ont dominé la planète pendant 60 millions d’années), on a eu des cataclysmes volcaniques et un énorme météore qui est tombé sur la planète (tuant les dinosaures). Est-ce pour autant que les déchets d’Oklo ou le pétrole sont allés se balader partout ? A priori non.





Sauf que ce n’est pas la même manière d’aborder les choses. Le pétrole est là car la poche a été stable. Toutes les poches “ratées”, le pétrole n’a pas pue s’y former. On se trouve donc dans le cas où comme les bonnes conditions étaient rassemblées et ont perdurées dans le temps, “le produit final”, le pétrole, a pue se former.

L’enfouissement du nucléaire c’est le problème inverse. On a le “produit final”, et on doit trouver la poche idéale pour l’enfouir, et on doit amasser toutes les connaissances scientifiques pour être sûr que la poche tiendra dans le temps. Et si la poche est raté ben, ce sera un peut plus compliqué que pour le cas du pétrole.


Le 10/06/2020 à 12h 31

<img data-src=" />Merci, je raccroche les wagons <img data-src=" />

Le 10/06/2020 à 12h 17







David_L a écrit :



Oui, après le seul truc pas chiffré c’est le stockage côté MS, ce qui peut poser des soucis ;)









David_L a écrit :



Le stockage côté serveur est chiffré





C’est juste pour montrer pourquoi j’ai du mal à suivre.

Si je comprends bien, chaque côté chiffre son stockage. Mais la synchro se passe sur les données déchiffrées. Dons si par exemple j’ajoute un nouveau fichier, c’est le fichier “en clair” qui, en passant par un canal chiffré, est envoyé pour être stocké coté serveur. C’est dans ce sens-là ? Si oui, t’y vois quoi comme soucis, si le chiffrement de la com. n’est pas p?iraté ?


Le 10/06/2020 à 09h 07







David_L a écrit :



Oui, après le seul truc pas chiffré c’est le stockage côté MS, ce qui peut poser des soucis ;)





Je ne comprends pas. L’emplacement ne serait pas chiffré côté serveur Microsoft ?


Le 08/06/2020 à 13h 26







vizir67 a écrit :



d’un seul coup, il* NE suffit plus ? <img data-src=" />

(faudra trouver ‘une autre excuse’, pour faire adopter l’App.)



* le masque





Les en tissu ne font que diminuer le risque. En soit-ce n’est pas incohérent.



Nb : au cas ou, j’aime pas cette appli depuis le début du projet (début du confinement).


Le 08/06/2020 à 13h 21

Je rectifiais juste pour ce qui n’iraient pas ouvrir le lien.

Le 08/06/2020 à 13h 15







DanLo a écrit :



on a trouvé qu’il n’y avait pas plus de 200 appels d’API / heure sur l’application ce jour là





Coquille. Ce n’est pas par heure, mais par minute <img data-src=" />


Le 08/06/2020 à 13h 17







numerid a écrit :



Merci, donc intérêt plus que limité on va dire.





De rien.

Surtout qu’il m’a rien dégagé de personnel dans le texte, il a juste voulu anonymiser “MS office” par “ MS O”. transpi:



Encore un coup des libriste ça <img data-src=" />



Nb : j’ai un prénom courant, qui ne veut rien dire d’autre, donc je vois pas pourquoi il n’y arriverait pas.


Le 08/06/2020 à 13h 11







numerid a écrit :



Proprement (je veux dire, il respecte le document) ?.





L’aperçu t’enlèves tous ce qui concerne la présentation. Mais j’obtiens le même résultat (texte et présentation) qu’avec le docx équivalant.