Comment se fait-il qu’ils manquent de lumière bleue ? Vu qu’ils passent leur temps sur écran (mobile surtout me semble) ;-) .
S’agit-il du manque de bleu de la lumière naturelle (soleil) ? Ils ne sont pas assez dehors ? Et la myopie n’est pas causée par le fait de regarder de trop près tout le temps (mobile) ?
C’est effectivement le manque de lumière naturelle qui empêche la production de dopamine. Il faudrait que je re-regarde le documentaire cité par Groupetto. Il me semble me souvenir qu’il disait que c’était particulièrement vrai pour la composante bleue de la lumière extérieure car c’est la composante la plus énergétique.
Je pense de toute façon qu’on a pas encore bien compris ce qui se passe.
Le
21/05/2019 à
10h
32
fry a écrit :
une led peut balancer énormément de bleu et peu du reste => l’oeil est trompé et la pupille reste dilatée à fond => potentiel problème sanitaire …
Il y a effectivement un potentiel risque sanitaire, mais l’étude n’a pas réussi à quantifier la phototoxicité.
Personnellement, ce qui me gène c’est qu’ils vont prendre des décisions de limitation sans être sûr alors que l’on sait aujourd’hui que c’est le manque de lumière bleue chez les adolescents qui provoque la myopie.
En entrée de ton programme tu as n’importe quelle phrase et ça trouve un ensemble de phrases qui sont la résolution de la contrepèterie ?
ça serait drôle d’analyser un corpus d’histoires salaces, de comptabiliser les occurrences des lemmes et d’utiliser ces chiffres pour trier les phrases qui sont la résolution de la contrepèterie. De cette manière le résultat qui a le plus grand score est la résolution la plus probable. Ce système peut être utilisé à l’envers pour trouver à partir d’une phrase quelconque les contrepèteries les plus salaces " />
Le
28/02/2018 à
08h
13
heret a écrit :
Ah, ces mythes qui nous abusent !
Une intelligence artificielle serait-elle en mesure de découvrir le sens caché de la phrase juste au dessus ? " />
Combien d’humains sont en mesure de découvrir par eux même le concept de contrepèterie ?
Cela ne me parait pas impossible de munir une IA d’un algorithme ad hoc capable de comprendre le sens de ta phrase.
One of the first actions of the Phoebus organisation when it was created in 1925 was to lay down a standard life of 1,000 hours—then already in common use in the United Kingdom and elsewhere—for general service filament lamps; it was provided that no mention of “ long life” should be made in any advertisement for lamps. A scheme for penalising excessive life or short life was worked out and after 1929 there were fines for a life in excess of 1,500 hours and fines on a lower scale for a life shorter than 800 hours unless the manufacturer had given notice that he had economic justification for making the life shorter.
Commentaire_supprime a écrit :
C’est bien possible qu’ils aient prévu cette clause au cas où une technologie de rupture serait développée par un des concurrents, et j’attends toujours des preuves convaincantes de ce fait, mais la durée de vie d’une ampoule électrique a été fixée à 1000 heure pour des raisons purement techniques. Et pas seulement par le cartel Phoebus.
Sachant que Sylvania, le concurrent du cartel Phoebus qui leur a piqué des parts de marché en vendant la même chose qu’eux trois fois moins cher, avait des ampoules qui avaient la même durée de vie.
Et que la norme GOST de 1931 sur les ampoules électriques, émise dans un pays où dénigrer le capitalisme était l’idéologie officielle, impose aussi une durée de vie de 1000 heures.
La réalité, ça rentre mieux quand on n’en laisse pas la moitié qui ne nous arrange pas à la porte…
Je suis d’accord sur tout ton argumentaire concernant le fait que la durée de vie optimale était de 1000 heures et je l’ai trouvé fort intéressant. Mais toi aussi tu ne gardes que la moitié qui t’arrange en ne voyant pas la différence entre une durée de vie garantie de 1000 heures et une durée moyenne qui doit être égale à 1000h.
A toi maintenant de me trouver des sources qui montrent que la norme GOST 1931 c’était des ampoules dont la durée de vie doit être comprise entre 800 et 1500 heures comme l’a fait le cartel Phoebus.
Le
24/01/2018 à
00h
09
*pour 100g
Le
23/01/2018 à
23h
59
J’ai sorti ça sans trop vérifié hein " />
En fait LU a déjà renommé son produit “Véritable petit beurre” pour se différencier des concurrents qui mettent de plus en plus d’huiles partiellement hydrogénées à la place du beurre.
Je vais quand même mémoriser qu’il y a 13.6g de beurre dans 200g, histoire de vérifier dans 10 ans si ça a changé " />
Le
23/01/2018 à
22h
44
Commentaire_supprime a écrit :
Problème : il faut de l’électronique de puissance pour avoir un fonctionnement correct de ce genre d’ampoule. Et avant l’invention du transistor, tu peux t’y asseoir dessus pour avoir une fluocompacte à la fois d’un coût abordable et d’une fiabilité correcte. Essaye d’en fabriquer une avec la technologie disponible dans les années 1920-1930 (typiquement, des lampes électroniques pour l’étage de puissance de l’engin) et tu m’en diras tant, en matière de coût et d’encombrement.
Si la technologie de l'ampoule fluocompacte n'a percé qu'au début des années 1980, c'est parce qu'il n'était pas possible d'en fabriquer à un coût raisonnable avant faute d'électronique de puissance disponible.
Pour les fluocompacte il faut effectivement attendre assez tard. Pour les tubes fluo il y en avait d’installés dans les années 30 qui faisaient 2000h. Leur luminosité n’était par contre pas terrible, il a fallu attendre les années 70 pour trouver un meilleur revêtement fluorescent.
Le
23/01/2018 à
22h
16
Commentaire_supprime a écrit :
C’est pas une limite de qualité maximale sombre idiot, c’est un COMPROMIS TECHNIQUE déterminé et choisi avec les LIMITATIONS de la technologie DISPONIBLE À L’ÉPOQUE. Ça rentre, la réalité ?
Quand tu fais payer une amende à celui qui la dépasse c’est bien une limite maximale. Que cette valeur soit le résultat d’un compromis technique à un moment donné n’y change rien. ça rentre la réalité ?
Le
23/01/2018 à
19h
27
OlivierJ a écrit :
Il n’y a aucune duperie…
Il serait intéressant de voir comment a évolué la quantité de beurre dans les ptits beurres au cours du temps.
A chaque fois le consommateur achète avec le souvenir qu’il a du produit qu’il a acheté précédemment. C’est pour ça que les industriels changent les formulations petit à petit pour que le consommateur ne voit pas la différence et s’habitue à chaque nouvelle génération à une qualité inférieure. A chaque itération l’industriel gagne en marge. Il y a duperie parce que le consommateur n’est pas en mesure de déterminer qu’il a payé le même prix pour une qualité inférieure à l’itération précédente.
Et un jour ils ressortiront les ptits beurres “Recette originale” qu’ils vendront plus cher mais qui aura vraiment goût de beurre " />
Le
23/01/2018 à
19h
10
Commentaire_supprime a écrit :
Les lois de la physique, lire mon explication.
Non les lois de la physique n’imposent pas que les ampoules (toutes techniques confondues) ne dépassent pas 1000 heures.
Pour fabriquer une ampoule à filament en grande série, tu n’as pas grand-chose à améliorer dans la méthode de fabrication en dehors de la capacité brute des machines-outils qui fabriquent le produit. C’est un article très basique, d’un point de vue technologique, et il n’y a guère qu’au niveau des matériaux que l’on peut changer quelque chose, et encore…
Les ampoules à filament classiques (pas les halogènes actuelles) sont restées les mêmes, d’un point de vue technologique, depuis que leur conception a été figée vers 1915, ce qui prouve que ladite conception était satisfaisante en l’état, et que des améliorations de la technologie ne pouvaient aboutir qu’à des gains négligeables pour des dépenses en R & D considérables.
Pourtant en 1926 a été inventé une autre technique pour faire des ampoules: les fluocompacts qui ont au aujourd’hui une durée de vie de 15000 heures
La technologie évolue. C’est complètement stupide de mettre une limite de qualité maximale. Les acteurs qui l’ont tenté ne l’ont fait que pour des considérations protectionnistes.
megabigbug a écrit :
Ils avaient que des chronomètres à disposition pour faire le contrôle qualité ? Ils n’avaient pas de wattmètre et de luxmètre ?
Commentaire_supprime a écrit :
Justement, si. Et c’est en grande partie en effectuant des mesures sur des prototypes qu’ils sont arrivés à déterminer quels étaient les paramètres de base que l’on pouvait faire varier sur une ampoule électrique : température du filament, longueur, diamètre, gaz raréfié à mettre dans l’ampoule, et cetera.
Donc ils avait très bien les outils pour valider qu’une ampoule (toute technique confondue) a la qualité souhaitée si pour une luminosité constante, une consommation inférieure à une certaine valeur, elle a une durée de vie supérieure à 1000 heures.
Ils ont délibérément choisi de ne garder que le critère de durée de vie et d’en faire une limite à ne pas dépasser et non une limite minimale. Ce choix n’est pas motivé par des considérations techniques (un ingénieur sait que les techniques vont évoluer pour faire encore mieux) mais uniquement économiques. Il ne fallait pas qu’un autre acteur sature le marcher avec des produits qui durent trop longtemps ne leur laissant pas le temps de retourner leur veste et de pouvoir se réimposer à temps sur le marcher.
Commentaire_supprime a écrit :
Tu as au départ un modèle théorique déterminé par calcul. Ensuite, à partir de ce modèle, des prototypes sont faits, et testés en variant divers paramètres afin d’affiner et de valider le modèle. Puis, une fois que le modèle est validé, on passe à la présérie en déterminant quels paramètres de fabrication donnent des ampoules au fonctionnement le plus proche du compromis calculé. Une fois la bonne formule trouvée, on passe en production.
Toute l’industrie fonctionne suivant ce mode de développement.
Certes, mais aujourd’hui aucun industrielle ne fait des normes qu’il impose aux autres avec des critères de qualité maximale comme l’a fait le cartel phoebius.
Imagine si les constructeurs automobiles se mettait d’accord pour que les voitures ne puissent pas avoir une consommation moyenne inférieure à 2L/100mm parce qu’ils ont trouvé que c’est le meilleur compromis puissance délivrée/vitesse avec la technologie actuelle de moteur thermique.
S’ils pouvaient le faire, ils le ferait mais ça serait trop gros.
Le
23/01/2018 à
07h
40
Ok, tu as raison ils se sont basé sur des critères techniques pour déterminer un optimum de durée de vie pour une méthode de fabrication.
Et alors ? Sachant que la méthode de fabrication était amenée à évoluer, qu’est-ce qui justifie d’utiliser comme unique critère cet optimum plutôt que les contraintes dont il est issue ?
Ils avaient que des chronomètres à disposition pour faire le contrôle qualité ? Ils n’avaient pas de wattmètre et de luxmètre ?
Le
22/01/2018 à
19h
09
Si leur intention avait été réellement basée sur des critères techniques et non économiques, ils auraient créée une norme de qualité avec une limite inférieure d’au moins 1000 heures à XXX Cd d’intensité lumineuse et pas une limite supérieure de 1000 heures.
Dès que tu as une limite supérieure, par exemple ta cartouche d’encre qui doit imprimer maximum 100 pages même s’il reste de l’encre dedans, c’est de l’obsolescence programmée.
Dans la pratique on sait qu’aujourd’hui les industriels utilisent des normes de qualité minimale qui commencent assez haut et qu’ils baissent toujours plus pour faire plus de marge. Ce n’est donc pas vraiment de l’obsolescence programmée mais il y a quand même duperie.
Par exemple des post-it qui collent de moins en moins bien et quand ils finissent par plus coller assez, ça devient un argument de vente pour te vendre des post-it “super sticky” qui tiennent vraiment et que tu vas bien sûr payer plus cher.
Le
21/01/2018 à
11h
24
La myopie accomodative n’explique pas pourquoi il y a une telle différence entre le nombre de myopes en Chine et en Australie alors qu’ils ont les mêmes comportements. Ils lisent autant mais dans des environnements éclairés différemments.
Personnellement, je pense que la myopie accomodative est beaucoup moins courante qu’une myopie liée à la profondeur de l’oeil. Ou alors la première est une conséquence de la seconde.
Le
21/01/2018 à
10h
51
DoWnR a écrit :
Par contre, d’un côté, dans la vidéo, ils disent que c’est particulièrement la lumière bleue qui stimule la production de dopamine qui diminue le risque de développer la myopie chez les jeunes, et d’un autre, par ailleurs, on va te dire que la lumière bleue est néfaste parce qu’elle augmente le risque de dégénérescence maculaire chez les vieux " /> …et évidemment, des deux côtés, une fois vulgarisé, les journaleux tournent ça de manière très alarmiste.
Une lumière bleue contient plus d’énergie donc mécaniquement elle a plus d’effet en bien ou en mal.
Le documentaire n’explique pas clairement comment la dopamine est produite. Je suppose que c’est une réaction chimique qui a besoin de l’énergie de la lumière pour se réaliser. Il n’est pas non plus assez précis sur comment la dopamine maintient la forme de l’œil. Peut être que les chercheurs ne le savent pas encore.
Dans tous les cas, c’est au cours du développement de l’œil que la lumière est nécessaire. Cela peut donc être à la fois bénéfique pour les jeunes et néfaste pour les personnes âgées.
J’ai aussi trouvé dans la vidéo qu’ils avaient tendance à présenter la myopie comme un grave handicap, c’est sûr que ça peut l’être, en particulier si elle est forte ou qu’on a pas accès aux soins de santé comme dans les pays les plus pauvres ou dans les pays où les services d’ophtalmologie saturent, mais pour les autres, c’est juste une contrainte de devoir porter des lunette ou lentilles (ok, je mets de côté le fait que ça augmente le risque de glaucome ou accélère l’apparition cataracte).
Au moins ils n’ont pas présenté ça comme un complot des opticiens pour vendre des lunettes " />
Le documentaire dit que la myopie est la première cause de cécité (lorsque cela provoque un déchirement de la rétine), c’est quand même un grave handicap quand cela se produit.
Sinon je suis d’accord avec toi, les journalistes ont tendance à transformer n’importe quel fait en catastrophe pour interpeller le spectateur et que ça peut avoir des conséquences problématiques sur certaines personnes. comme par exemple le rejet sans discernement de la technologie.
Le
20/01/2018 à
23h
57
Oui, c’est la faible exposition à la lumière du jour qui limite la production de dopamine ce qui provoque un mauvais développement de l’œil à l’adolescence. J’ai lu cette thèse il y a quelque année et je l’avais trouvée bien plus crédible que la soit disant sur-exposition aux écrans ou la lecture intensive. Encore une fois on a confondu corrélation et causalité.
Je pense que l’article de nextinpact devrait être corrigé en conséquence.
Je pense que si SpaceX ne parle pas des rayons cosmiques (impossible d’écrire cette phrase sans penser au fameux dessin de CommitStrip “thank god for commenters” :-) ), c’est qu’il ne fait pas partie des problèmes majeurs ou insolubles.
Une éruption solaire ne dure effectivement pas très longtemps mais le soleil peut rester très actifs pendant une longue durée. Peut être qu’on arrivera à prédire la météo solaire sur une longue durée et qu’on arrivera à choisir des années de faible activité.
Mon avis sur le sujet des radiations c’est qu’ils ont considéré que le risque était acceptable même avec des protections défaillantes. Après tout, il y a plein de gens qui serait prêt à aller sur Mars même s’ils attrapent un cancer. Un peu de lecture sur le sujet pour ceux que ça pourrait intéresser:
En fait contrairement à ce que tu pense , le problème des radiations est déjà connu et réglé.
Lors des vols Appollo la NASA a pu vérifier que le blindage seul du vaisseau était suffisant pour protéger les astronautes.
Le seul vrai danger est l’éruption solaire. Dans ce cas l’équipage devra se réfugier dans un endroit protéger du vaisseau, soit par exemple derrière le réservoir d’eau qui les protégera très bien.
Donc non on a pas besoin de 10 cm de plomb pour se protéger et de plus on ne protège pas tout le vaisseau mais seulement une petite zone utilisée seulement pendant les éventuelles éruptions solaire. Enfin un réservoir d’eau (je rappelle suffisamment d’eau pour un équipage pour une mission de plus de 6 mois vers Mars (en supposant que sur place il y a de quoi refaire le plein) est suffisant pour se protéger.
Donc les fameuses radiations sont un faux problèmes.
Le vrai problèmes sera la condition physiques et mentale des astronautes, la quantité d’eau, de nourriture et de carburant nécessaire au voyage au moins allé si l’on a déjà envoyé des cargos sur place pour le ravitaillement.
Le blindage d’une cabine Apollo n’est pas suffisant pour un voyage vers Mars.
Pendant leur semaine de voyage, les astronautes ont reçu 2,24 millisieverts alors que la limite annuelle pour les travailleurs du secteur nucléaire en France est de 20 millisieverts (https://fr.wikipedia.org/wiki/Ceinture_de_Van_Allen)Donc en moins de 10 semaines ils auraient atteints la limite annuelle.
Et c’est sans parler des éruptions solaires qui peuvent durer des semaines.
Dans tous les cas, SpaceX passe sous silence ces problèmes et ils n’ont pas montré qu’ils les avaient réglés.
Le
03/10/2017 à
08h
03
Salamandar a écrit :
Et le problème des radiations est “résolu” depuis bien longtemps : boucliers en plomb, en eau (eh ouai, h2o est utilisé dans les centrales thermonucléaires), et j’en passe.
Le problème des radiations n’est pas résolu à moins qu’on puisse faire des engins spatiaux avec des murs de 10cm de plomb pour arrêter les rayons gamma et d’embarquer le carburant nécessaire à cette surcharge.
L’avenir est peut être dans la création d’un champ magnétique pour dévier les rayonnements, comme le fait la magnétosphère. Malheureusement ces technos ne seront pas prêtes dans 10 ans.
Salamandar a écrit :
Et le problème musculaire est résolu par de la gravité artificielle depuis bien avant 2001 l’odyssée de l’espace. Même si bien évidemment c’est assez compliqué à mettre en place, c’est parmi les mcilleures solutions.
La gravité artificielle par rotation est une bonne solution. Malheureusement dans 2001 l’odyssée de l’espace, le diamètre du vaisseau discovery et trop faible, les forces de coriolis serait trop importantes. Le moindre mouvement de tête d’un astronaute lui ferait mal à la nuque et s’il marche trop vite dans le sens inverse de la rotation il s’envole " />
Il faudrait un diamètre de plusieurs centaines de mètres pour ne plus ressentir les forces de coriolis (comme la station spatiale dans 2001).
Personnellement, j’imagine une solution en reliant deux vaisseaux par des câbles en acier d’au moins un kilomètre de long et mettre le tout en rotation. J’ai pas fait de calcul pour vérifier mais j’imagine bien que ça doit pas être évident à déplacer un tel bazar dans l’espace.
bah dis le clairement dès le début, si tu n’aimes pas je ne vais pas te forcer. encore heureux.
Encore fallait-il avoir les idées claires au début " />
Et puis je rebondissais d’un autre post. Désolé si j’ai fait mon relou.
tpeg5stan a écrit :
c’est le principe du sauvetage, non ?
Une banque avec plus de capital se voit renflouer par l’argent des états, et la meilleure façon de le faire c’est par des prêts, investissements, etc. Je ferais remarquer que pas mal de ces banques se sont pris de sacrées amendes. Tape “amende banque” dans le moteur de recherche de ton choix pour t’en convaincre.
La prochaine crise des banques viendra fort probablement de la dette étudiante, encore un truc duquel tout le monde en a rien à cirer mais qui menace les anglais et les ricains.
Peut-être. Même si c’est relativement prévisible donc pas sûr que ça provoquera une crise. On verra.
Le
24/08/2017 à
19h
48
tpeg5stan a écrit :
Ne me fait pas dire ce que je n’ai pas dit. Je ne suis pas contre les emprunts. Je n’aime juste pas le fonctionnement du système monétaire actuelle. Et soyons honnête, il n’est pas possible aujourd’hui pour un particulier d’obtenir une licence bancaire (sans l’appuis d’une banque ou d’un état).
Oui mais toutes les banques renflouées par les états n'ont pas toutes été nationalisées. Certaines sont restées privées en profitant de prêt avantageux garantis par les états, qu'elles ont remboursé rapidement (facile avec le pouvoir de créer de la monnaie) et aujourd'hui elles continuent comme si de rien n'était. Il est où le risque pour elles ?
Le
24/08/2017 à
19h
19
joma74fr a écrit :
Mais tu oublies que ça s’équilibre au moment du remboursement du prêt.
Je n’oublie rien du tout. ça ne s’équilibre pas complètement.
ça continue de gonfler parce qu’il y a de plus en plus de prêt mais aussi parce qu’un prêt sert à assurer un autre prêt avant même que le premier ne soit remboursé.
En soit ce n’est pas gênant que la masse monétaire augmente tout le temps, ce qui est gênant c’est que ce système ne garanti pas que tout le monde soit en mesure de rembourser son prêt.
Au moment de la crise des subprimes, les premiers défauts de paiement des crédits immobiliers étaient sûrement de la faute des emprunteurs, mais quand le système s’est emballé, les gens se sont retrouvés dans l’impossibilité de payer alors que c’était la faute du système bancaire.
Le système bancaire actuelle me fait penser à une centrale nucléaire classique. C’est un système instable qu’on empêche de s’emballer avec des barres de contrôle. Ce qu’il nous faut ce sont des réacteurs sous-critiques qui s’arrêtent tout seuls si on arrête de les alimenter et ainsi éviter la catastrophe.
Mon analogie est probablement inadéquate, mais une chose est sûr c’est que le système bancaire actuel est buggé et les banques n’ont pas l’air de vouloir le reformer, au mieux ils veulent ajouter un peu plus de contrôles qui n’empêcheront pas la prochaine catastrophe.
C’est en cela que les monnaies numériques apportent des solutions telles que la blockchain qui, je l’espère, permettrons un jour de concevoir un système bancaire réellement stable.
Le
23/08/2017 à
21h
14
tpeg5stan a écrit :
Si une banque me prête l’argent, c’est qu’elle l’a.
Non
Il faut juste qu'elle ait un dépôt de 100 euros d'un autre client pour pouvoir te prêter 80. Et ces 100 euros peuvent être retirés par cette autre personne juste après. Pire, ces 80 euros tu vas peut-être les déposer dans cette même banque, qui va pouvoir encore prêter (et il n'y a pas de traçabilité pour l’empêcher).
Bon, il y a quelques règles un peu plus stricts avec un pourcentage de fonds propres des banques. Mais ça ne reste qu'un pourcentage.
analyser des dossiers de solvabilité et calculer des taux d’intérêt ce n’est pas « rien faire ». Les banques prennent des risques avec certains prêts, et perdent d’ailleurs de l’argent parfois.
Mouai bof. Le banquier il fait quoi ? Il saisit des valeurs dans un logiciel qui calcule la solvabilité.
Parfois ils se font avoir mais dans l'ensemble leur logiciel est bien rodé. Et quand ça ne marche plus, elles font appel aux états pour faire redémarrer leur machine à générer du fric.
Le
23/08/2017 à
20h
45
tpeg5stan a écrit :
euh oui, ça se passe à chaque fois que je consomme également en général, ton truc s’appelle l’inflation, non ?
Je dis peut être des bêtises mais il me semble que l’inflation est un indicateur de l’augmentation des prix, pas un indicateur direct de l’augmentation de la masse monétaire.
tpeg5stan a écrit :
Je ne vois pas en quoi c’est une arnaque […]
J’ai repris le terme d’arnaque d’un autre post, et il est un peu fort, je suis d’accord.
tpeg5stan a écrit :
Si je fais un emprunt à la banque, qui me permet d’acheter une maison/une voiture/autre, la légitimité de la banque est de fournir une somme d’argent que je n’ai pas, et les intérêts que je paye sont tout à fait légitimes.
La banque ne détient pas l’argent qu’elle te prête, la légitimité que tu lui accord c’est justement cette capacité à créer l’argent (et à respecter les règles de gestion et de création monétaire). Pourquoi aurait elle le droit de le faire et pas d’autres ? Pourquoi des gens gagnent de l’argent sans rien faire juste grâce à cette distorsion ?
Le
23/08/2017 à
20h
08
ça n’a rien de tiré par les cheveux, la masse monétaire augmente suite à un prêt accordé à quelqu’un d’autre, donc toi tu ne détiens plus qu’un pourcentage plus faible de la masse monétaire.
Le
23/08/2017 à
20h
05
linkin623 a écrit :
Monnaie que tu détruis lors du remboursement de ton crédit.
Ce qui n’empêche pas la masse monétaire d’augmenter car avant que tu rembourses ton crédit, tu as achetés quelque chose et donc de l’argent est déposé sur un autre compte en banque, ce qui permettra à cette banque de prêter à quelqu’un d’autre avant même que tu ais remboursé.
Je suis nul en économie donc je dis peut être des conneries, mais il me semble que le fait qu’il n’y ait aucune traçabilité de l’argent “classique” pour empêcher le phénomène que j’ai décris en fait une solution inférieur aux monnaies numériques qui elles disposent de la blockchain.
Le
23/08/2017 à
19h
36
tpeg5stan a écrit :
Je ne vois pas le problème, ni l’arnaque.
L’arnaque c’est qu’une banque a le pouvoir créer de la monnaie scripturale ce qui crée une distorsion de concurrence par rapport aux autres acteurs économiques.A chaque fois qu’une banque prête de l’argent à quelqu’un elle crée de l’argent faisant automatiquement baisser la valeur de l’argent que TOI tu as obtenu à la sueur de ton front.
Elle ne peut prêter qu’en fonction d’un pourcentage de ses fonds propres ce qui limite un peu les effets mais l’argent qu’une banque et ses actionnaires gagnent n’a aucune légitimité surtout aujourd’hui ou il ne reste plus grand chose de la gestion de comptes bancaires qui ne soient pas gérés par des machines.
Un être humain sait raisonner, sait penser, sait anticiper et sait se corriger, malgré tout les contre-arguments qui ont pu mettre amené.
Est-ce que ces critères sont les plus important pour la conduite ?
Une mouche évite plus facilement les obstacles qu’un pilote de chasse car elle est munie de capteurs, d’un réseau de neurone et d’une propulsion plus adaptés à l’évitement d’obstacle.
Nous n’avons pas besoin de fabriquer une IA qui rivalise avec l’intelligence d’un humain. Il faut “juste” fabriquer un ensemble (capteurs, contrôleurs, actionneurs) plus adapté à la conduite qu’un humain.
Je pense qu’on a déjà atteins ce point mais qu’il reste encore à le rendre tellement plus adapté que ça ne fasse plus aucun doute pour personne.
C’est rarement intéressant de changer de processeur sans changer la ram et la carte mère. Quand ça commence à être intéressant de changer c’est qu’il y a eu des changements technologiques qui impactent l’ensemble de ces composants. Si tu n’as pas un trio cpu/ram/cm équilibré je trouve que c’est du gâchis.
Ce n’est pas un problème, c’est juste révélateur que les gens ont un cerveau “câblé” de la même manière. Toutes les personnes qui ont choisi ce nom ont probablement voulu faire de leur projet une vitrine technologique. Qu’est-ce qui permet d’éclairer une vitrine: des tubes néon.
Après une fois que le nom neon est choisi, les marketeux peuvent squatter les résultats des moteurs de recherche pour faire connaître le projet à des personnes qui cherchaient un autre projet neon 😁
À ma connaissance KDE est le premier à avoir choisi ce nom qui fait écho au nom de son thème Oxygen.
Je ne suis pas d’accord pour pénaliser cette petite entreprise, mais ils auraient dû admettre que la vidéo de la fiche steam a un contenu scripté qui n’est pas représentatif du contenu dans le jeu qui lui est généré aléatoirement. En conséquence ils auraient dû demander de faire retirer la vidéo.
Le problème, c’est que le monde ARM s’est développé en se moquant totalement de développer le moindre standard pour permettre la compatibilité. Par exemple, il n’y a pas de Bios pour abstraire à minima l’accès au matériel.
A cause de cela, il est impossible de booter le même Os issu d’un support unique sur toutes les machines comme on le fait sur un PC.
Ce n’est pas vrai de dire qu’il n’y a pas eu le moindre standard pour permettre la compatibilité.
Des choix architecturaux “légèrement” différents mais qui, selon Canonical, rendent Wayland pas pratique pour l’univers mobile.
L’argument de Canonical était que l’allocation des buffers est effectuée par le serveur graphique sous Android alors qu’avec Weston (le serveur graphique de reference implémentant Wayland) ce sont les clients qui font l’allocation et qui présentent les buffers à Weston. Sauf que le protocole Wayland n’a pas de restriction de ce coté. Cela dépend de l’implémentation qu’on en fait. D’ailleurs Jolla qui utilise Wayland dans Sailfish OS depuis pas mal d’année en production fonctionne comme Android.
RichardD a écrit :
D’ailleurs, au départ, Canonical a travaillé sur Wayland
Peut être. La seule chose que l’on sait c’est qu’ils avaient annoncés qu’ils voulaient supporter Wayland dans Ubuntu et qu’au final ils ont fait autre chose.
Aujourd’hui il n’y a pas de risque. Malheureusement c’est le genre de chose qui pourrait changer avec l’évolution des brevets logiciels.
Le
13/09/2016 à
07h
18
Kujathemas a écrit :
Je vais pour me regarder un film (rien d’exotique, un mp4 en x264 et aac) bim dragon player qui plante, je tente un autre fichier pareil.
sudo apt-get install kubuntu-restricted-extras
Le x264 n’est pas installé par défaut à cause de problèmes de licence. Ce paquet contient les codecs que tu n’a pas le droits d’utiliser par défaut. Il me semble que tu aurais dû avoir une notification te proposant de l’installer au moment ou tu as utilisé dragon player. Tu as dû aussi avoir une proposition de les installer au moment de l’installation de Kubuntu.
Il me semble que mint les installe par défaut.
Le
13/09/2016 à
07h
04
Habituellement c’est effectivement le matos très récent qui ne marche pas toujours out of the box.
Pour les clés bluetooth et wifi c’est un peu différent. Au départ il y avait plein de puces différentes pour ces clés donc il n’y avait pas forcement de driver pour chacune. Maintenant toutes les clés utilisent des dérivés des mêmes modèles pour lesquels il existe déjà des drivers. Il faut parfois juste attendre que l’adaptation du driver soit terminée. Quand on n’utilise pas une distro rolling release, ça peut prendre 6 mois.
Note que les vieilles clés dont je parle sont aussi pénibles à faire fonctionner sous windows.
Il semblerait de toute façon que je me soit trompé de diagnostique, que c’est une clé récente et qu’il a eu des difficultés à charger le driver ce qui est plutôt de la faute de la distro kubuntu.
Le
12/09/2016 à
17h
07
Kujathemas a écrit :
Puis un beau jour, à peine quelques semaines après l’installation, j’ai fait une maj qui était proposé et plus possible de booter sur Kubuntu.
Mise à jour de Windows ou de Kubuntu ?
Le
12/09/2016 à
16h
59
Tu as probablement utilisé ndiswrapper pour utiliser le driver windows sous linux. Il me semble que ndiswrapper ne marche plus avec les dernières version de network manager. Tu as donc probablement utilisé un autre gestionnaire de réseau comme wicd ce qui rend la configuration de ton réseau wifi assez pénible.
Maintenant, je pense que ta clé wifi est un peu ancienne. Ça marche mieux avec du matos plus récent.
Le
12/09/2016 à
16h
06
Konrad a écrit :
Par exemple, certains te diront qu’il a fallu attendre Windows 95 pour avoir plusieurs comptes utilisateurs, alors qu’un OS comme UNIX offrait déjà le multi-comptes depuis 1969 (26 ans de retard ?). Ou encore, qu’il a fallu attendre Windows 10 pour avoir des bureaux virtuels, alors qu’ils existent sous Linux depuis les années 1990 (20 ans de retard ?).
Un autre exemple: KDE intègre un centre de notifications depuis 2009 (KDE 4.3). Windows ne l’intègre que depuis 2014 (Windows 8.1).
Les notifications même madame Michu en a besoin contrairement aux multi comptes et aux bureaux virtuels.
Le
12/09/2016 à
11h
23
Konrad a écrit :
Non il y a un menu pour le faire dans le navigateur de fichiers… Que ce soit sous KDE, Gnome, ou n’importe quel environnement en fait…
On sent le gars qui n’a pas utilisé Linux depuis les années 1990 mais qui vient cracher dessus pour le plaisir " />
À sa décharge, cette fonctionnalité a été plusieurs fois retirée et réintroduite dans les explorateurs de fichiers depuis 1990. Il a peut être essayé au mauvais moment. Peut être aussi qu’il n’a pas retrouvé les symlinks dans les 3 types de liens que permet de faire par exemple dolphin.
Bah non, pas là. Tu as un interlocuteur, tu envoies à un seul donc bande passante X.
Tu as n interlocuteurs, tu envoie à X*n. Donc ok, pas exponentiel, mais proportionnel si tu préfères ! J’ai un peu forci le trait !
Si je ne me trompe pas, Skype utilisait un réseau P2P avec super peer pour des questions de latence: un des peers fait office de serveur. Ce n’est pas proportionnel dans un réseau P2P classique, tu peux n’envoyer par exemple qu’à deux peers qui vont eux même n’envoyer qu’à deux peers et ainsi de suite, tous les peers finiront par avoir l’information que tu as envoyée. Par contre ça ne sera pas forcement rapide et pas non plus très fiable s’il y a des peers qui disparaissent rapidement du réseau.
C’est flagrant: l’ensemble de tes raisonnement se fondent sur les principes et les besoins relatifs à la création de ce que tu connais: les UI.
Mon second exemple décrivait plus ou moins un layout 3 colonnes. Le genre de chose vraiment commun dans les sites Web et qui pourtant est resté longtemps difficile à faire en HTML/CSS sans bidouilles et même aujourd’hui avec les flexbox je trouve que c’est encore compliqué pour faire une chose aussi basique.
Le
31/08/2016 à
20h
28
brazomyna a écrit :
En gros tu ressembles à un charpentier qui ne jure que par les marteaux comme ‘outil ultime’. Et tu nous expliques que les mécaniciens ont tort d’utiliser des tournevis pour leur tâches, parce qu’un marteau c’est quand même vachement mieux pour planter des clous.
Justement, aujourd’hui, les mécaniciens se mettent tous à planter des clous (font des UI d’applications avec des technos web) et passent de moins en moins de temps à serrer des vis (créer du contenu web).
Au vu de cette tendance, c’est normale que je fasse la remarque qu’ils n’utilisent pas le bon outil.
Le
31/08/2016 à
20h
08
brazomyna a écrit :
Un peu comme le fait CSS3, quoi.
Non, le CSS3 ne permet pas de faire ce que fait QML.
Par exemple, tu ne peux pas de façon déclarative dire que la largeur d’un rectangle est égale à sa hauteur pour en faire un carré. En QML, un tel carré resterait carré si sa largeur change au cours du temps.
Dans le même genre, en HTML/CSS c’est très compliqué de dire qu’un rectangle à son bord gauche à droite d’un premier élément et son bord droit à gauche d’un second élément et de faire en sorte que lorsque les deux éléments se rapprochent ou s’éloignent le rectangle continue à prendre l’espace entre les deux éléments.
C’est possible de s’en sortir maintenant avec des flexbox mais c’est quand même la misère à déclarer par rapport à QML. Il faut notamment déclarer le comportement d’un élément sur son conteneur et non sur l’élément lui même et du coup on est obligé d’avoir un élément conteneur qui souvent ne sert qu’à la mise en forme.
218 commentaires
LED et lumière bleue : des risques avérés pour la santé, les recommandations de l’Anses
21/05/2019
Le 21/05/2019 à 12h 46
Le 21/05/2019 à 10h 32
Blocage administratif : le ministère de l’Intérieur attaqué par le représentant de la CNIL
21/12/2018
Le 24/12/2018 à 11h 12
L’attribution des fréquences 5G, le point faible de l’Europe et de la France ?
14/03/2018
Le 14/03/2018 à 13h 16
Une étude pointe les possibles effets pervers et dangers de l’intelligence artificielle
26/02/2018
Le 28/02/2018 à 15h 32
Trop cool " />
En entrée de ton programme tu as n’importe quelle phrase et ça trouve un ensemble de phrases qui sont la résolution de la contrepèterie ?
ça serait drôle d’analyser un corpus d’histoires salaces, de comptabiliser les occurrences des lemmes et d’utiliser ces chiffres pour trier les phrases qui sont la résolution de la contrepèterie. De cette manière le résultat qui a le plus grand score est la résolution la plus probable. Ce système peut être utilisé à l’envers pour trouver à partir d’une phrase quelconque les contrepèteries les plus salaces " />
Le 28/02/2018 à 08h 13
#Replay : addiction aux smartphones, pouvoirs du sucre et myopie
19/01/2018
Le 24/01/2018 à 20h 23
J’essaye de republier les liens:
http://webarchive.nationalarchives.gov.uk/20120119163804/http://www.competition-commission.org.uk/rep_pub/reports/1950_1959/003lamp.htm
plus précisément dans:
http://webarchive.nationalarchives.gov.uk/20120119163804/http://www.competition-commission.org.uk/rep_pub/reports/1950_1959/fulltext/003c09.pdf
Le 24/01/2018 à 19h 31
désolé pour les liens mals fichus. L’éditeur de lien ne permet pas des urls qui contiennent 2 http:/
Le 24/01/2018 à 19h 28
Le 24/01/2018 à 00h 09
*pour 100g
Le 23/01/2018 à 23h 59
J’ai sorti ça sans trop vérifié hein " />
En fait LU a déjà renommé son produit “Véritable petit beurre” pour se différencier des concurrents qui mettent de plus en plus d’huiles partiellement hydrogénées à la place du beurre.
Je vais quand même mémoriser qu’il y a 13.6g de beurre dans 200g, histoire de vérifier dans 10 ans si ça a changé " />
Le 23/01/2018 à 22h 44
Le 23/01/2018 à 22h 16
Le 23/01/2018 à 19h 27
Le 23/01/2018 à 19h 10
Le 23/01/2018 à 07h 40
Ok, tu as raison ils se sont basé sur des critères techniques pour déterminer un optimum de durée de vie pour une méthode de fabrication.
Et alors ? Sachant que la méthode de fabrication était amenée à évoluer, qu’est-ce qui justifie d’utiliser comme unique critère cet optimum plutôt que les contraintes dont il est issue ?
Ils avaient que des chronomètres à disposition pour faire le contrôle qualité ? Ils n’avaient pas de wattmètre et de luxmètre ?
Le 22/01/2018 à 19h 09
Si leur intention avait été réellement basée sur des critères techniques et non économiques, ils auraient créée une norme de qualité avec une limite inférieure d’au moins 1000 heures à XXX Cd d’intensité lumineuse et pas une limite supérieure de 1000 heures.
Dès que tu as une limite supérieure, par exemple ta cartouche d’encre qui doit imprimer maximum 100 pages même s’il reste de l’encre dedans, c’est de l’obsolescence programmée.
Dans la pratique on sait qu’aujourd’hui les industriels utilisent des normes de qualité minimale qui commencent assez haut et qu’ils baissent toujours plus pour faire plus de marge. Ce n’est donc pas vraiment de l’obsolescence programmée mais il y a quand même duperie.
Par exemple des post-it qui collent de moins en moins bien et quand ils finissent par plus coller assez, ça devient un argument de vente pour te vendre des post-it “super sticky” qui tiennent vraiment et que tu vas bien sûr payer plus cher.
Le 21/01/2018 à 11h 24
La myopie accomodative n’explique pas pourquoi il y a une telle différence entre le nombre de myopes en Chine et en Australie alors qu’ils ont les mêmes comportements. Ils lisent autant mais dans des environnements éclairés différemments.
Personnellement, je pense que la myopie accomodative est beaucoup moins courante qu’une myopie liée à la profondeur de l’oeil. Ou alors la première est une conséquence de la seconde.
Le 21/01/2018 à 10h 51
Le 20/01/2018 à 23h 57
Oui, c’est la faible exposition à la lumière du jour qui limite la production de dopamine ce qui provoque un mauvais développement de l’œil à l’adolescence. J’ai lu cette thèse il y a quelque année et je l’avais trouvée bien plus crédible que la soit disant sur-exposition aux écrans ou la lecture intensive. Encore une fois on a confondu corrélation et causalité.
Je pense que l’article de nextinpact devrait être corrigé en conséquence.
Avec sa fusée BFR, SpaceX veut conquérir la Terre, la Lune, Mars et le reste du système solaire
02/10/2017
Le 05/10/2017 à 19h 55
Le 03/10/2017 à 17h 01
Le 03/10/2017 à 08h 03
Consultation en Estonie pour la création d’une crypto-monnaie nationale
23/08/2017
Le 24/08/2017 à 21h 54
Le 24/08/2017 à 19h 48
Le 24/08/2017 à 19h 19
Le 23/08/2017 à 21h 14
Le 23/08/2017 à 20h 45
Le 23/08/2017 à 20h 08
ça n’a rien de tiré par les cheveux, la masse monétaire augmente suite à un prêt accordé à quelqu’un d’autre, donc toi tu ne détiens plus qu’un pourcentage plus faible de la masse monétaire.
Le 23/08/2017 à 20h 05
Le 23/08/2017 à 19h 36
Voitures autonomes : le G7 veut « identifier et supprimer » les obstacles réglementaires
26/06/2017
Le 26/06/2017 à 18h 48
AZERTY : l’AFNOR veut votre avis sur le prochain clavier français
07/06/2017
Le 07/06/2017 à 22h 15
Ce qui simplifie la vie, c’est des règles qui ne changent pas selon le contexte.
Le français a déjà tellement de bizarrerie autant ne pas en rajouter.
AMD Ryzen : la gamme commence à faire parler d’elle, mais il manque encore l’essentiel
06/02/2017
Le 08/02/2017 à 22h 22
C’est rarement intéressant de changer de processeur sans changer la ram et la carte mère. Quand ça commence à être intéressant de changer c’est qu’il y a eu des changements technologiques qui impactent l’ensemble de ces composants. Si tu n’as pas un trio cpu/ram/cm équilibré je trouve que c’est du gâchis.
Opera dévoile Neon, son navigateur-laboratoire
13/01/2017
Le 14/01/2017 à 13h 39
Windows 10 sur ARM réclamera au minimum un Snapdragon 835
09/12/2016
Le 09/12/2016 à 21h 48
C’est peine perdue s’ils continuent à ne supporter que des processeurs Qualcomm.
Selon l’ASA, la fiche Steam de No Man’s Sky n’avait rien de trompeur
02/12/2016
Le 03/12/2016 à 18h 14
Ce jugement est plutôt aberrant.
Je ne suis pas d’accord pour pénaliser cette petite entreprise, mais ils auraient dû admettre que la vidéo de la fiche steam a un contenu scripté qui n’est pas représentatif du contenu dans le jeu qui lui est généré aléatoirement. En conséquence ils auraient dû demander de faire retirer la vidéo.
Sinon, cette vidéo me fait toujours autant rire:
YouTube YouTube
Pour Linus Torvalds, le x86 a encore de beaux jours devant lui face à ARM
12/10/2016
Le 15/10/2016 à 20h 58
Ubuntu 16.10 a maintenant sa session d’essai pour Unity 8
06/10/2016
Le 06/10/2016 à 11h 58
Linux Mint 18 : la déclinaison KDE est là, avec Plasma 5.6
10/09/2016
Le 13/09/2016 à 07h 32
Aujourd’hui il n’y a pas de risque. Malheureusement c’est le genre de chose qui pourrait changer avec l’évolution des brevets logiciels.
Le 13/09/2016 à 07h 18
Le 13/09/2016 à 07h 04
Habituellement c’est effectivement le matos très récent qui ne marche pas toujours out of the box.
Pour les clés bluetooth et wifi c’est un peu différent. Au départ il y avait plein de puces différentes pour ces clés donc il n’y avait pas forcement de driver pour chacune. Maintenant toutes les clés utilisent des dérivés des mêmes modèles pour lesquels il existe déjà des drivers. Il faut parfois juste attendre que l’adaptation du driver soit terminée. Quand on n’utilise pas une distro rolling release, ça peut prendre 6 mois.
Note que les vieilles clés dont je parle sont aussi pénibles à faire fonctionner sous windows.
Il semblerait de toute façon que je me soit trompé de diagnostique, que c’est une clé récente et qu’il a eu des difficultés à charger le driver ce qui est plutôt de la faute de la distro kubuntu.
Le 12/09/2016 à 17h 07
Le 12/09/2016 à 16h 59
Tu as probablement utilisé ndiswrapper pour utiliser le driver windows sous linux. Il me semble que ndiswrapper ne marche plus avec les dernières version de network manager. Tu as donc probablement utilisé un autre gestionnaire de réseau comme wicd ce qui rend la configuration de ton réseau wifi assez pénible.
Maintenant, je pense que ta clé wifi est un peu ancienne. Ça marche mieux avec du matos plus récent.
Le 12/09/2016 à 16h 06
Le 12/09/2016 à 11h 23
Skype 1.7 pour Linux élimine ses bugs, mais reste en alpha
12/09/2016
Le 12/09/2016 à 18h 19
Chrome : Ignition doit réduire la consommation de mémoire vive autour de JavaScript
30/08/2016
Le 31/08/2016 à 21h 03
Le 31/08/2016 à 20h 28
Le 31/08/2016 à 20h 08