votre avatar

lothoaheur

est avec nous depuis le 14 novembre 2007 ❤️

42 commentaires

Le 15/09/2021 à 13h 57

Inshallah

Le 09/01/2019 à 10h 03

C’est déjà utilisé sur la Sony Oled A1. Les vibrations sont à une fréquence qui est imperceptible à l’oeil et qui n’endommage pas la structure de la dalle en verre.

Pour avoir cette TV, cette méthode est bluffante (du moins sur la Sony) avec un son ultra spécialisé et un super rendu dans les aigus/médiums.

A voir chez Hisense après.

Le 20/01/2017 à 14h 27







revker a écrit :



C’est quand même plus dangereux que la création d’une machine lambda. Il s’agit ici de munir une machine d’un libre arbitre.







Il n’est pas du tout question de donner un libre arbitre à une machine, c’est tout bonnement impossible à l’heure actuelle.

Quand on parle d’IA de nos jours c’est principalement du machine learning. Des algorithmes matricielles qui permettent, en gros, de trier des données à partir d’une base de données “d’entrainement”. C’est utilisé un peu partout: de la reconnaisse d’images chez Google à l’analyse de données scientifiques (très utilisé par les expériences du LHC).

Et par exemple dans les pilotes auto de voiture, à partir des données de capteurs un algo peut “trier” la situation et en déduire la meilleure marche à suivre. On est encore très loin du concept de libre arbitre quand même.


Le 08/12/2016 à 17h 23



Là aussi cela ressemble à du déjà vu puisque NVIDIA avait introduit un dispositif similaire sur les appareils portables avec BatteryBoost il y a deux ans. Dans les deux cas, une Radeon récente sera nécessaire pour en profiter (GCN ou RX400).





Ça à l’air différent de ce que propose Nvidia tout de même. Ils utilisent les algorithmes de HiAlgo pour créer un “limiteur de fps intelligent”, et réduire le nombres d’appel GPU inutile.



cf: http://www.hardware.fr/news/14869/radeon-software-crimson-relive-neuf.html

Le 09/11/2016 à 16h 51

<img data-src=" /> c’est une comparaison. Des tubes sous vide permettent de limiter au max les frottements. La vitesse du son c’est 340 m/s, ils annoncent 600 km/h soit ~160 m/s.

Le 04/11/2016 à 20h 28

Alors oui sur le principe ça reste le même. Sauf que là on accélère une seule particule pour en créer une ou quelques unes plus lourdes, ce qui nécessite un grand apport en énergie et la reaction est au final extrêmement endothermique.

Le 20/10/2016 à 11h 03

Non, ce ne sont pas des fails. Certes l’atterrissage à échoué mais cela reste bel et bien des semi-échecs.

De plus dans le cas de Philae l’atterrissage s’est bien déroulé, seulement il s’est posé près d’une falaise donc avec un ensoleillement très réduit et donc n’a pas pu recharger ses batteries.

Meme si Schiaparelli s’est probablement crashé, les donnés recueillies sont précieuses et au final c’est ce qu’on attend d’un “crash-test” meme si ca aurait été intéressant pour l’ESA de tester les instruments embarqués.

Le 13/09/2016 à 14h 29

Il me semble que c’est en cours

Le 08/08/2016 à 23h 51

Exact! Le concept de force est intuitif et c’est pour ça qu’on le garde pour parler d’interactions.

Puis c’est comme en mécanique, il n’y pas vraiment de force mais une interaction par échange de boson vecteur. Cependant on parle encore bien de force électromagnétique, faible, forte dans le langage courant en physique.

Le 08/08/2016 à 23h 43

La gravité est une force, on l’appelle même la force gravitationnelle ;)

Le 20/06/2016 à 09h 32

Rooooh! Ce cliché sur les “provinciaux” … <img data-src=" />

Le 09/05/2016 à 12h 45

Passchendaele a duré 3 mois.



La Somme a duré un peu plus de 4 mois.



Verdun a duré un peu moins d’1 an.



Débarquement des Dardanelles a duré un peu moins d’1 an.



Donc en effet, énorémement d’hommes ont pris part aux combats, mais sur de longues périodes. Mais en regardant sur des courtes périodes, des centaines voir des milliers d’hommes prenaient par au combat.



Par contre, pour l’offensive Broussilov (pas de durée précise sur Wiki), elle semble “intéressante” pour un jeu vidéo (dans un lointain futur) car le front était de 150 km et les possibilités de variation et d’évolution peuvent être énorme !

Le 11/04/2016 à 10h 24

L’intérêt c’est surtout d’en apprendre beaucoup sur les formations de planètes et même de systèmes solaires, entre autre !

Le 08/04/2016 à 13h 50

C’est dredi après tout … <img data-src=" />



Mais carrément +1 !

Le 06/03/2016 à 13h 22

+100000000



Je n’ai trouvé qu’un seul smartphone récent qui repond à ces critères: le BQ Aquaris M4.5

Le 13/02/2016 à 19h 52

Pour compléter Mihashi, tu peux aussi lire directement l’article du Physical Review Letter - ou les multiples articles qui sont sortishttp://arxiv.org/abs/1602.03844 - expliquant l’expérience (miroir, laser, vide) et les tests effectués après (citation de l’article):



Exhaustive investigations of instrumental and environmental disturbances were performed, giving no evidence to suggest that GW150914 could be an instrumental artifact. The detectors susceptibility to environmental disturbances was quantified by measuring their response to specially generated magnetic, radio-frequency, acoustic, and vibration excitations. These tests indicated that any external disturbance large enough to have caused the observed signal would have been clearly recorded by the array of environmental sensors. None of the environmental sensors recorded any disturbances that evolved in time and frequency like GW150914, and all environmental fluctuations during the second that contained GW150914 were too small to account for more than 6% of its strain amplitude. Special care was taken to search for long-range correlated disturbances that might produce nearly simultaneous signals at the two sites. No significant disturbances were found.



Pour les questions sismiques, les miroirs sont isolés de toutes secousses (lien) et des instruments de mesures environnementaux sont placés aux alentours de l’expérience pour mesurer les conditions climatiques.



De plus, l’onde a d’abord été détecté par L1 puis par H1 avec un décalage de 7ms laissant peu de doutes.

Le 12/02/2016 à 21h 27







tazvld a écrit :



A priori, de ce que je comprend, il y a une perte de masse lors de la fusion de 2 trous noirs, il y a donc une perte d’énergie à un moment donné.

Dans un physique newtonienne, les 2 corps tourneraient ad vitae aeternum, mais dans la physique de la relativité générale, à priori, j’ai l’impression que le système perds de l’énergie à balancer des ondes gravitationnelles dans tout les sens.

A confirmer.





J’ai fait une petite recherche dans mes livres de Relat. G. et en effet:

Un système binaire (comme ici les deux trous noirs) vont en effet perdre de l’énergie au cours du temps suite au dégagement d’ondes gravitationnelles. Les deux objets en rotation vont par conséquent se rapprocher avec une diminution de la pếriode de rotation pour finir avec leur coalescence.



D’ailleurs, la diminution de la période orbitale d’un système binaire était une preuve indirecte des ondes gravitaionnelles (https://fr.wikipedia.org/wiki/PSR_B1913+16 ).


Le 12/02/2016 à 19h 42

Justement, et je pose la question depuis ton précédent mail, car si ton système est parfait et intéragit uniquement de manière gravitationnelle, son moment cinétique est conservé et le système est donc stable.

Mais c’est de la mécanique classique. Est-ce toujours vrai ici ?

Le 12/02/2016 à 19h 10

Une théorie qui prédit “parfaitement” la Nature sera impossible car nous sommes obligés de travailler dans des approximations et des incertitudes (Cf. incertitude d’Heisenberg).

On utilisera alors toujours la théorie qui correspond le mieux au système d’étude (Cf. Newton vs Einstein concernant la chute d’un objet à faible célérité par rapport à celle de la lumière).



Mais je te rejoins totallement sur la conclusion.

Le 12/02/2016 à 18h 19

Ça dépend où tu mets ton critère “d’acceptance” pour une théorie.

Mesurer directement la théorie des cordes, cad comme une théorie quantique de la gravité, risque d’être très difficile (voir impossible :p) devant les échelles d’énergie considérées (notre échelle d’énergie vs l’échelle d’énergie où la gravité n’est plus négligeable devant les autres forces).



Par contre, et ton article le résume très bien, on peut très bien travailler dans ses approximations et la tester de manière indirecte. Par exemple, si le LHC arrive à prouver l’existance de la Supersymmétrie (SUSY), ça sera alors de très bonne augure pour la théorie des cordes puisque la SUSY résulte de la théorie des cordes.

Le 12/02/2016 à 17h 58

Pas forcément car ça dépend de la dynamique de ton système et de ses conditions initiales.

Par exemple, si tu regardes le couple Terre-Lune, c’est le contraire qui se passe puisque la Lune s’éloigne de la Terre.

Le 12/02/2016 à 16h 26

Si si il y a des théories qui font consensus en physique, bien que ce ne soit pas toujours celles-là qui se vérifient (par exemple Boltzmann et ses théories sur la physique statistique ont longtemps été décrié).



Après il ya des théories qui ont plus de “supporters” que d’autres mais il y a aussi des effets de modes xD.

Concernant la théorie des cordes et dérivées … elles ont pas que des supporters … surtout qu’elles sont extrêmement difficiles (voir impossible …) à valider expérimentalement. Pour l’instant on est très loin d’unifier quantique et relat. G.

Le 12/02/2016 à 15h 43

Oui c’est ce que je disais (peut-être maladroitement), qu’il y a des théories tentant d’accorder gravitation du point de vue relat. G et physique des particules.

Mais il n’y en a pas encore qui font véritablement consensus

Le 12/02/2016 à 15h 16

Essayer de sous-tendre une particule à ce phénomène est une tout autre question. En relativité générale la gravitation and co provient d’une déformation de l’espace-temps et il n’y est pas question de particule. La physique des particules (modèle standard and co) tente de l’expliquer par une particule et son champ associé, et c’est déjà loin de faire un consensus théorique pour l’instant. C’est d’ailleurs un gros enjeu de faire converger ces deux théories.



Petit aparté mais une particule massive peut atteindre la vitesse de la lumière, sur un court instant, à travers une violation de la conservation masse-energie via le principe d’incertitude d’Heisenberg ;)

Le 11/02/2016 à 17h 00

Oui tout à fait, l’expansion est très largement dominé par la gravité localement <img data-src=" />



On sent surtout son effet lorsque on observe des objets très lointain, les photons subissent cette expansion lors de leur trajet ;)

Le 11/02/2016 à 16h 36

Hmm l’expansion de l’univers se produit en tout point, elle est d’environ 72 km/Mpc/an, et c’est d’ailleurs ce qui provoque le redshift (décalage vers le rouge) des ondes électromagnétiques.



Donc notre amas local est bel bien affectée, mais les effets sont imperceptibles à cette échelle et ces échelles de temps

Le 11/02/2016 à 16h 22

Je fais l’analogie avec la physique des particules qui est plus mon domaine ^^



On verra bien ce que dit Barrish dans son talk.

Le 11/02/2016 à 16h 14

J’ai pas trop suivi la conf et j’ai pas du être attentif à ce passage.



Pour ma part je considère que c’est indirecte, puisque l’on détecte une conséquence d’un effet/objet (tout comme les lentilles etc) et non l’objet lui même

Le 11/02/2016 à 15h 58

Il n’y a pas de détection direct, c’est de la détection indirecte. Et ce n’est pas une première, il y avait déjà les lentilles gravitationnelles par exemple

Le 11/02/2016 à 15h 57

Ils ont détecté des ondes gravitationnelles qui ne peuvent provenir que de la fusion de 2 trous noirs

Le 11/02/2016 à 15h 53

On ne mesure pas l’espace-temps, on détecte indirectement les ondes qui résultent de sa déformation.

Le 11/02/2016 à 15h 33

Il s’agit principalement des résultats de LIGO, il me semble que VIRGO et Advanced-VIRGO ne sont pas encore opérationnels.



La différence avec LISA c’est qu’il s’agit d’interféromètre et le défi est de réduire le bruit de fond ( VIRGO est même sensible aux passages de la lune ). C’est là tout le défi de ces expériences.



Pour ceux que ça intéresse il y a le talk de Barish Barry à 17h sur le webcast du CERN qui sera plus porté sur la physique que de l’auto-congratulation pour journaliste https://webcast.web.cern.ch/webcast/index.php

Le 01/02/2016 à 16h 08







sr17 a écrit :



C’est une plaisanterie ?



C/C++ est certainement l’un des langages qui permet de garder un style de programmation le plus propre quand on veut un minimum de performances. Comparativement à d’autres langages, il minimise grandement le coût de l’abstraction.



Quand à la compilation, il n’y a rien de spécialement compliqué en C/C++. Mais comme tout langage, le C/C++ a ses spécificités et son style qui doit être appris et compris.



Pour le reste, quand on veut des performances, on est toujours obligé de sortir des styles de programmation “académiques”. Et cela n’a rien à voir avec le langage de programmation utilisé.



Le “bien coder” appris dans les écoles n’est pas orienté performances…







En même temps, il ne faut pas rêver. Pour avoir des performances, il faut taper à bas niveau. Tout le contraire de ce qu’un langage “simplifié” permet…









Dans mon cas, et la plupart des personnes en physique des hautes énergies, je n’ai pas de formation en programmation poussée. Tout au plus des cours de modélisation numérique. 80% de ce que je connais en C++ je l’ai assimilé en tâtonnant.

Et dans cette situation, bien utiliser le C++ est une illusion ! Ça demande plusieurs années de formation et travail !

Parfois pour simplement implémenter un effet dans la simu sur laquelle je bosse, je passe plusieurs jours à me battre pour avoir le résultat attendu. Au prix de manip sales qui rendent mon code brouillon et moins performant.



Ensuite les problèmes de compilation (plus précisément de linkage <img data-src=" /> ) ça devient vite galère quand tu utilises des libs qui dépendent d’une autre libs et celles qui appellent du fortran … tu deviens vite fou !



Donc oui, dans ce cas précis, le gain en simplicité du Go compense largement son manque de perf.


Le 01/02/2016 à 13h 34

En effet mais c’est lourd et vraiment pas ergonomique, autant rester sur du C/C++ dans ce cas.

Le 01/02/2016 à 13h 16

Un langage simple à prendre en main mais avec des perfs proches du C je prends direct ! Dans le domaine scientifique c’est carrément un plus!



Je passe pas mal de temps à coder, dont une simulation axée sur les performances et je m’arrache souvent les cheveux en C++. Ce langage devient vite ultra complexe dès que l’on s’attarde à “bien coder” et à chercher les performances, sans compter les casse-tête qu’on a à la compilation !



Un langage qui associerait simplicité et flexibilité de Python avec les performances du C me simplifierait tellement la vie pour ma thèse … Il manque juste les libraries scientifiques au Go …

Le 04/01/2016 à 11h 06

En fait onde et rayonnement c’est la même chose, ça dépend juste du contexte. Par exemple en physique on utilise souvent rayonnement pour parler de l’effet d’une onde sur un milieu.

Le 04/01/2016 à 10h 53



[…] Volt par mètre qui permet de mesurer la « force électrique » d’un champ électrique […]





Pour être exact le V/m est l’unité du champ électrique fr.wikipedia.org Wikipediala force de Coulomb donne la force exercée par des charges électriques (son unité est donc le Joule).



Voila, juste pour préciser <img data-src=" />

Le 23/12/2015 à 19h 02

Un Xeon E3 1230 v5 est gross-modo un i7 6700 sans iGPU et moins cher (outre-atlantique du moins), d’où l’intérêt …

Le 01/04/2015 à 10h 27

Les stormtroopers étaient à la base les clones de Jango Fett (puis des clones basés sur d’autres templates plus tard) mais ont fait peu à peu place à des humains



“By the time the Galactic Civil War began in earnest, Jango Fett’s clones were heavily supplanted by clones based on a variety of templates around 9 BBY,[13] followed shortly after by enlisted Humans.”

http://starwars.wikia.com/wiki/Stormtrooper

Le 11/12/2014 à 09h 41







arkaow a écrit :



[…]

D’un autre côté si il y en a assez ça va empêcher une partie du rayonnement solaire d’arriver à la surface et du coup ralentir le réchauffement climatique. C’est écolo comme projet du coup <img data-src=" />







C’est une blague j’espère <img data-src=" />


Le 03/12/2014 à 23h 39

Ce n’est pas une question d’accélération. Dans ce cas on peut assimiler une fusée à un objet balistique et un calcul de mécanique classique te donne la relation pour la vitesse de libération (vitesse minimum pour échapper à un champ gravitationnel) fr.wikipedia.org Wikipedia.



Le LHC c’est totalement diffèrent. On accélère un “rayon” de particule (protons et atomes de plomb en l’occurrence) cohérent, dans la pratique c’est assez diffèrent que d’accélérer un satellite de plusieurs tonnes.

Le LHC est une succession de section rectiligne où les particules sont accélérées par un champ électrique uniforme puis courbées via un champ magnétique. Et ça demande une énergie phénoménale (le LHC ne tourne pas en hiver pour donner un petit indice <img data-src=" />)

La matière étant électriquement neutre, on ne peut l’accélérée que via les propriétés ferromagnétiques des métaux (electro-aimants) ou en utilisant l’induction magnétique (solénoïde) … par contres mes cours d’électromagnétisme remontent à quelques temps et je ne saurais pas plus détailler <img data-src=" />



Et pour la précision je ne sais pas si c’est au micron près mais selon l’orbite visée, la moindre variation en début d’accélération résulte par une déviation proportionnelle à la distance parcourue. Et vu que pour une mise en orbite il faut une précision au poil de cul <img data-src=" />

Le 19/11/2014 à 10h 06

J’ai rapidement lu en diagonal le papier des gars de Standford, et de ce que j’ai compris ils utilisent un set de “training images” avec une description complète associée. Dans un premier temps leur modèle infère les correspondances entre l’image et la description (multimodal embedding) et, à travers ces correspondances, apprend à créer des descriptions (via un réseau de neurones récurent).