Pas le droit de s’exprimer un minimum sur internet, c’est la pensée unique, c’est ça ?!
Une personne a raison et tous les autres sont des fous si ils disent le contraire ?
En tout cas, la majorité des coms ici cassent systématiquement ceux qui essaient de démontrer que les électrosensibles existent, déjà plus de 400 coms !
Pourquoi ?
" />
Essaye de lire les messages qu’on t’écris et de les comprendre. Alors peut être tu comprendra ce que j’ai voulu dire.
Le
26/08/2015 à
10h
41
Ce qui est paradoxale c’est qu’en te comportant de la sorte tu participes au discrédit et à ridiculiser la cause que tu défends. Tu passes en plus pour un charlot. Et je t’assures que tu n’aide personne ainsi, bien au contraire.
Le
25/08/2015 à
16h
24
Darkmatou a écrit :
Il y a eu un reportage là-dessus sur France 5 récemment, et les gens semblent vraiment en souffrir, au point que certains s’isolent de la société pour essayer de trouver des “zones blanches” dans lesquelles ils peuvent vivre sans souffrir.
On peut toujours écarter certains “malades” qui présentent en fait des troubles psychologiques, il reste que, sur le nombre, je ne pense pas qu’ils soient tous psychologiquement perturbés. Dans le reportage se dégageait l’idée que c’est plus la saturation d’un organisme par les Ondes Electro-Magnétiques que le fait de qu’elles soient présentent continuellement. En fait, les organismes vivants baignent dans les OEM depuis les origines, mais ce n’est que très récemment que leurs nombres, leurs puissances et leurs concentrations sont aussi élevés. Entre le wifi, le BT, la radio, la TV, le gsm (3G/4G), le micro-onde…on en prends plein la gueule chaque jour sans même s’en rendre compte, à la maison, dans le rue et au boulot.
En tous cas, ça mérite que les autorités se posent la question de manière sérieuse, idéalement sans pressions des lobbys industriels, et il y en a un paquet car le sans-fil concerne aujourd’hui de plus en plus de domaines, les objets connectés (montres, santés, domotique…) étant en passe d’envahir littéralement notre quotidien. Mais là, je crois que ce n’est pas gagné…
Je reste assez sceptique, Il y a déjà eu des expériences scientifiques de faites sans que rien ne soit trouvé. Si ça se trouve cette dame fait une réaction à autre chose mais elle s’est focalisé sur l’idée qu’elle était électrosensible.
Le projet de départ était génial avec un nouveau wing commander non officiel de la part du créateur de la série mais là tout l’argent gagné lui a fait prendre un peu la grosse tête …
En même temps Chris Rober, Wing Commander… Quand tu as ces deux noms et que tu as connu ses jeux, tu t’attends à ce que le gars soit plus qu’ambitieux (trop). Avec les risques inhérent à cette ambition.
C’est comme rouler sur le Nürburgring avec une twingo.
Oui on joue sur Linux. Je vois pas le soucis.
Le
18/08/2015 à
20h
52
linkin623 a écrit :
Bref, c’est vraiment à prendre avec des pincettes.
Surtout que pour steam les stats sont basées sur des sondages et pas des stats directe.
Y’a quelques studios indépendants qui avaient diffusée leurs stats avec souvent des chiffres entre 1 et 3% de ventes sur Linux si mes souvenir sont bon.
C’est pas suffisant pour amortir le dev d’un jeux mais surement suffisant pour motiver un portage. Les studios spécialisés dans ce domaine ont l’air de bien tourner maintenant et d’avoir de bon retour en terme $$$.
Ce sont bien des versions normales, je l’utilise pour mes serveurs de tests pour valider mes routines d’installation etc … :)
Perso la dernière fois que j’ai testé j’avais le navigateur amnésique avec un onglet bloqué, le fond d’écran bloqué, l’accélération graphique qui me paraissait pas dispo. Bref mis à part pour du test j’ai pas l’impression que ce soit opérationnel comme des versions normale.
Le
18/08/2015 à
14h
38
MuadJC a écrit :
Tout c’est vite dit, avec le vrai DD en lecteur réseau les programmes qu’on veut lancer peuvent y résister.
J’imagine même si besoin un passage dans regedit et appdata pour sauver les infos nécessaires.
Oui enfin ce ne sont pas des versions normales de Windows. Elles ont pas mal de limitations. C’est réservé pour tester les navigateurs pas plus et tu ne pourras pas y faire grand chose de plus sans t’emmerder et perdre du temps.
Le
18/08/2015 à
13h
06
“Des technologies qui pourraient permettre à terme de fournir des solutions beaucoup plus légères.”
J’en doute, sauf à mettre tout windows dans le container auquel cas on revient au même problème de la taille. Je vois pas bien comment cela pourrait améliorer les choses. Je suis même pas sur que ça puisses fonctionner.
Les deux seuls options que je vois c’est d’offrir une version multiplateforme d’IE, ou de proposer un service gratuit dans le cloud qui permette de visualiser les résultats sous différentes version d’IE+Windows.
Marrant. Git a été conçu pour avoir un système complètement décentralisé où chacun a sa propre version/évolution du code… et au final ca converge lentement vers un système classique avec un “master” central, des branches/forks et des checkout/merge en local, puis des checkin vers le master.
Tout comme le P2P s’en retourne vers le DDL, le Git retourve au cvs/svn.
Pas vraiment GIT te permet de faire du centralisé ou décentralisé il n’a pas changé. Le fait qu’il puisse être complètement décentralisé permet souvent d’avoir des workflow complexe si tu en as besoin.
Après de manière pratique le fait d’avoir un dépôt central de référence reste le plus simple à gérer. Mais après chacun s’organise comme il veut.
Le
12/08/2015 à
21h
11
hurd a écrit :
" /> Je l’utilise et j’en pense grand bien, mais l’équipe n’a pas encore sortie de logiciel version desktop GUI avec visualisation graphique des branches , donc pas de news " /> .
Framagit c’est gitlabs il me semble. C’est pas un projet propre à Frama.
Le
12/08/2015 à
21h
10
Kernald a écrit :
C’est pourtant tellement plus simple de parser la sortie d’un git status ou autre à coups de grep, sed et compagnie que de chercher pendant de longues minutes dans la liste d’une interface graphique ce qui t’intéresse…
Tout dépend de l’UI en fait. C’est vrai que la grosse majorité des UI pour Git n’apportent pas grand chose ou sont pas super bien foutus (je reviens toujours à la ligne de commande). Mais justement leur GitHub Desktop m’a l’air sympa. Pour visualiser certaines choses, comme l’arbre des commits avec les branches, les gros diffs, reviser des commits passés, peut être faire du rebase, etc. N’étant pas copain avec Grep une petite interface simple mais claire je dirais pas non.
Cette nouvelle aurait du faire l’objet d’un article ici même. De mon coté, XML est loin d’être abandonné, bien au contraire. La norme évolue peu, car XML est mature.
Oui as tu plus d’informations ? La dernière fois que j’ai regardé les choses avaient l’air plutôt calme ^^ .
Le
29/07/2015 à
13h
40
eb303 a écrit :
Gné? Mais que dis-tu? XML n’est pas un langage, c’est un “méta-langage”, un langage permettant de faire d’autres langages. Et pour info, HTML, dans sa variante XHTML, c’est du XML. Ou alors voulais-tu parler de XUL?
XML n’est pas un méta-langage mais un langage à balisage. XHTML est basé sur XML oui d’où le X.
Et donc ?
Le
29/07/2015 à
13h
36
EMegamanu a écrit :
Désolé, mais je vais être brutal… mais quand on ne sait pas de quoi on parle on ferait mieux de la fermer.
XML est un langage de balises générique, qui dérive d’un autre langage générique plus permissif appelé SGML.
Le terme générique a ici toute son importance car il signifie que tu peux construire n’importe quel autre langage descriptif à balise dans un contexte précis à partir de ceux-ci.
Ce sont les fameux DTD et XML Namespace qui permettent de préciser quelles sont les syntaxes de ces langages spécifiques dérivés.
Ainsi, le XUL est langage descriptif basé sur XML, servant à réaliser des interfaces d’applications basées sur XULRunner.
HTML quant à lui est à ses origines un langage basé sur SGML, destiné à la conception de documents.
XHTML 1 apportait quant à lui une syntaxe beaucoup plus stricte de HTML 4. Baséesur XML et facilitant le travail sur les sources afin d’y introduire d’autres namespaces (comme du SVG), le parcours par le biais de requêtes XPath, la transformation en un autre contenu par le biais de feuilles de styles XSLT, etc.
HTML5 quant à lui peut être utilisé au choix comme un balisage type SGML, ou comme un balisage type XML.
Hey on se calme. Tu te prends pour qui sérieux ?
Oui je connais les origines des deux et je n’ai pas dit le contraire. Mais ça ne change pas grand chose au fait qu’XML ici n’apporte rien par rapport à HTML. Sauf à vouloir faire sa popote dans son coin avec un format comme XUL. Tu te retrouves au final avec la plupart des acteurs qui se dirigent vers HTML. Ce qui permet d’amplifier la convergence web/applications.
De plus le standard XML, comme je l’ai dit plus haut est globalement au point mort depuis plusieurs année et de plus en plus décrié dans un certains nombre d’usages car trop verbeux.
Tes insultes tu peux te les garder.
Le
29/07/2015 à
11h
37
Pour moi HTML est suffisamment complet déjà par rapport à XML. Le XML ça fait 10 ans qu’il n’est plus mis à jours. Du coup autant miser sur une techno qui avance. De plus ça permet d’amplifier encore plus la convergence web/applications. Et c’est important pour Mozilla quand on sait qu’ils utilisent déjà pas mal de technos web sur leur OS il me semble.
Le
29/07/2015 à
11h
17
EMegamanu a écrit :
Si quelqu’un sait ce qu’ils entendent par des “technologies du web” pour l’ihm.
Parce que XUL c’était vraiment pas si mal que ça, et je ne vois pas en quoi XML n’est pas une techno du web. :/
technologies web = HTML, CSS et Javascript je suppose.
Bah l’argument que je lis souvent sur l’absence de mis à jours des constructeurs est justement le fait qu’Android soit open source. Par conséquent tout le monde et principalement les constructeurs ont le droit de le modifier, de ne pas déployer les mis à jours etc…
Peut être que ça n’a rien à voir , mais ça a quand même l’air d’être employé comme motif pour justifier tout et n’importe quoi.
Je pense pas. Les constructeurs doivent approuver les termes et conditions pour intégrer Android sur leurs mobiles de manière normale. Et Google pourrait très bien imposer certaines règles en terme de mise à jours. Ils ne l’ont pas fait pour laisser le maximum de liberté aux constructeurs et je pense aussi pour ne pas trop se compliquer la vie (ils n’ont pas à faire de maintenance).
Le problème serait le même avec un logiciel proprio. Non il faudrait qu’ils revoient leur règles pour imposer certaines bonnes pratiques aux constructeurs utilisant Android.
Le
28/07/2015 à
15h
20
L’Open Source n’a strictement rien avoir ici. C’est simplement que Google n’a pas la main sur les mises à jours des smartphones des constructeurs.
Le
28/07/2015 à
14h
06
atomusk a écrit :
C’est sur que les téléphones blackberry sous Blackberry OS 7 qui n’ont jamais été mis à jour à BB10 sont la preuve que BB est irréprochable sur les MAJ " />
A j’ai pas dis le contraire. Encore que la, la différence c’est que BB c’est quoi ? 1% des smartphone dans le monde. Android c’est quoi ? 80% ?.
the true mask a écrit :
Ptain une faille pareille : on dirait Windows des années 90 " />, en plus c’est une attaque de destruction ultra massive ( pas moins de 95 % des utilisateurs )
la première décennie des années 2000 plutôt.
Le
28/07/2015 à
13h
47
atomusk a écrit :
Tout OS a des failles … aucun OS n’est épargné …
Le bug de SMS de Windows Phone (crash à la récéption de SMS), et celui de IOS (SMS avec carractére spécial => crash en boucle), sont juste l’étape 1 avant d’identifier une faille de sécu dans l’OS.
Si tu ne veux pas un OS avec une faille de sécurité, ne prend pas de téléphone " />
Oui c’est sur, mais le problème va venir plutôt de la politique de mise à jours.
Et en attendant, j’ai jamais rien payé et la pluspart ne payent pas non plus, pourtant les sites sont toujours là :)
Nop y’a pas mal de sites qui ont fermé justement (Et PC Inpact a faillit en faire partie). C’est un gros mouvement de fond ces dernières année. Car faire un site d’actu ça coute et la pub ne représente souvent qu’une part du CA que peut obtenir un site.
Le
27/07/2015 à
14h
47
Bejarid a écrit :
Ouais enfin les analyses, on a pas forcément tous le même avis dessus.
Perso je trouve que les analyses (sur les entreprises, les techno, les business model, les produits…) sont de moins en bonnes depuis quelques années. A part pour deux journalistes, je dirais même que c’est devenu une catastrophe ici sur les 12 derniers mois. Y a de plus en plus en plus d’erreurs d’interprétation des sources.
Et c’est bien ça qui m’a fait arrêter mon abonnement (après 2 ans de bons et loyaux services).
Ça ce discute, chacun voit si il pense que ça vaut le coup de s’abonner ou non.
Disons que partir du principe que le contenu doit être gratuit sans pub me semble une aberration et nous fait aller droit dans le mur.
D’un autre coté dire que le contenu, pour toi, ne mérite pas un abonnement est tout à fait acceptable.
Le
27/07/2015 à
14h
20
Lnely a écrit :
T’as pas toujours le choix, alors qu’avec internet, tu as le choix, et c’est légal.
Quand tu vas sur Le Monde, tu payes pour consulter un article ? Non.
Tu regardes ton article, tu t’en vas et voila, t’es informé. Gratuitement.
A ne pas comparer avec une voiture, (essence, CT, Autoroute, assurance, etc).
Logique quoi :/
Non tu n’as pas toujours le choix même avec internet. Avec ton raisonnement appliqués de manière massive tu verras disparaitre toutes les infos et analyses et on te servira des publi-reportage à la pelle des dépêches AFP généré par des robots. Et tu seras alors désinformé “gratuitement”.
Tout travail mérite salaire et surtout rien n’est gratuit. Du coup si tu veux du contenu de qualité il faut mettre la main à la poche. Perso je paye rarement pour ça mais si un site m’apporte vraiment un gros plus j’essaye de contribuer d’une manière ou d’une autre.
Et LeMonde propose bien des articles payants.
Le
27/07/2015 à
12h
41
Entoni_ a écrit :
On est d’accord, les primes c’est pas “mauvais”, c’est juste que ça rentre ensuite en contradiction avec certains points de leur argumentaires de vouloir fournir de la “qualité” au plus grand nombre.
Y’a un moment soit t’assumes que tu fais ça aussi pour gagner un peu de sou (parce que c’est mérité hein, y’a du boulot, je remet pas ça en cause) soit tu te cache derrière des arguments fallacieux mais ça peut pas durer éternellement.
Perso, je suis abonné mais savoir que les sous que je donne serve à financer “La Presse Libre” qui n’est actuellement qu’un projet, ça me fait tiquer et surtout ça n’implique pas que ma participation me permettra de profiter de cette “Presse Libre”, surtout que ce “ponctionnement” n’est indiqué nulle part au moment de la souscription de l’abo " />
Pour conclure, je trouve juste que votre communication et quelque peu maladroite sur certains points.
Non y’a pas de contradiction, c’est plutôt une question d’équilibre et de bon sens. C’est pas parce que tu as de l’argent à un moment donner que tu peux faire tout et n’importe quoi. Tu dois faire des choix sachant que ces choix auront un impacte important pour l’avenir du site. L’accès au plus grand nombre c’est simplement que la grosse majorité du contenu est d’accès gratuit.
Pour ce qui est du projet de Press Libre il me semble qu’ils en parlent déjà depuis pas mal de temps.
Le
27/07/2015 à
12h
21
Entoni_ a écrit :
Dites moi si je me trompe, mais pour moi, le bénéfice c’est une fois que vous avez payé vos charges, vos investissements pour le futur ainsi que vos salaires ?
Le bénéfice c’est une fois payé tes impôts et tes charges. Mais ensuite tu dois prendre en compte:
Les investissements que tu vas faire par la suite (embauche, nouveau matos, etc.).
Avoir une réserve d’argent en cas de mauvaise année.
Et comme indiqué dans l’article rembourser l’emprunt qu’il ont réalisé.
Si la situation se stabilise pendant une période suffisamment longue (Genre une moyenne de 10% de benef par ans). La question pourrait se poser mais tu peux choisir de baisser les prix des abos ou utiliser cet argent pour investir.
Et des primes ce n’est pas forcément une mauvaise chose. Histoire de motiver les troupes après une bonne année.
Une faille XSS, encore aujourd’hui ? Ça fait pas très sérieux.
Le problème c’est que Wordpress est resté coincé 10 ans en arrière en terme d’architecture de projet web. Je connais pas les motivations derrière mais c’est vraiment désolant de voir un projet qui est autant utiliser faire du surplace depuis des années. Du coup je pense que les faille sont le contre-coup de cet immobilisme.
Ce n’est pas vraiment le propos que je lis dans l’article ?
Évidemment, ce n’est pas la fin du monde, mais je trouve que l’enchainement d’informations est plutôt déprimant x)
En gros tu as deux opérateurs de satellites qui couvrent la France dont un est pour l’instant saturé. Mais le second est toujours présent et continue de proposer ses services.
Le
24/07/2015 à
14h
08
Pazns a écrit :
Un plan aussi important que le plan THD n’était même pas au courant de l’état des réseaux qu’il veut utiliser ? C’est une blague ?
Est-ce trop compliqué de faire un état des lieux avant de dresser des plans sur la comète ? N’est-ce pas justement pour faire ce genre de travail que tous ces fonctionnaires et hauts-fonctionnaires sont payés ?
Comme le dit bien l’article Eutelsat n’est pas le seul à offrir ce genre de services. Du coup il y a encore de la place.
Le
24/07/2015 à
11h
49
Nezhal a écrit :
Oui, je sais bien, mais je me demande justement comment envoyer des satellites à 50M€ pièce peut être plus rentable que de développer un réseau cuivre plus fiable.
Le complet doit plus tourner dans 150 millions d’euros si tu inclus le lancement à 60⁄70 voir 90 millions d’euros.
Maintenant c’est rentable parce que ton satellite à 150 millions d’euros couvre directement plusieurs dizaines, voir centaines de millions de personnes et donc de client potentiels. Et que ton satellite dure en général facilement 15 ans. Du coup ça te fais 10 millions d’euros par ans. Et en général les satellites tournent rapidement à pleine capacité.
Il faudrait voir le coût d’installation et de maintenance pour du cuivre en zone rurale.
Le
24/07/2015 à
08h
33
blamort a écrit :
Question, si le provider a son infra au sol morte (EMP, etc), est ce que le satellite peut délivrer les connexions de facon autonome ?
Logiquement non vu que le satellite ne sert au final que de relais avec l’opérateur.
Le
24/07/2015 à
07h
46
A noter que certains opérateurs ont supprimé la limitation en data.
Le
24/07/2015 à
07h
35
dmann a écrit :
Les offres par satellite sont-elles intéressantes? Je veux entendre par là, est-ce que les pages internet s’ouvrent normalement, ou tout comme le 56k ou le 512K il faut attendre 5 à 15 secondes avant que la page s’ouvre? Les déconnexions sont-elles fréquentes?
Si un utilisateur d’internet par satellite pouvait me donner ses renseignements se seraient " />
La grosse différence c’est que tu as du ping (200ms je crois) et une limitation en donnée (Encore que pour ce dernier les choses se sont bien améliorés).
Le ping du coup t’interdit ou te rend difficile le jeux en réseaux.
D’ailleurs, mystérieusement, les Anasazis, le peuple qui habitait ces pueblos, a disparu. Le plus probable est que l’ensemble des habitants ont été enlevé par des extraterrestres.
" />
Le
23/07/2015 à
20h
40
Isshun a écrit :
Tu parles de l’éther comme d’une croyance qui aurait aveuglée les scientifiques de l’époque alors que c’est le contraire, l’éther à été théorisé pour expliquer les observations que l’on avait de l’espace, et malgré les problèmes qu’il causait il à perduré tant qu’aucune nouvelle théorie ne pouvait le remplacer. Une fois Einstein et sa théorie de la relativité arrivée tout le monde s’est débarrassé de l’éther, parce que la relativité
fonctionnait mieux.
C'est juste une preuve de l'esprit pragmatique de la communauté scientifique, on est ok pour croire n'importe quoi tant que c'est possible et que ça colle avec la réalité, mais lorsque qu'une nouvelle théorie explique mieux un phénomène c'est celle là qui est retenue.
Oui enfin sauf que l’Ether n’a jamais rien apporté au monde scientifique. Ou ça à du apporter plus de mal de tête qu’une quelconque solution. C’est par exemple à l’inverse des théories de Newton qui ont permis pas mal d’avancée mais avec de grosses limitations. Je crois pas que l’Ether ai permis la moindre avancée scientifique. Et je pense que c’est resté un théorie faible.
Le
23/07/2015 à
14h
50
Konrad a écrit :
« À ta connaissance » ouais… Avant de clamer haut et fort des choses comme « les égyptiens ne connaissaient pas la roue et la construction des pyramides ne leur a posé aucun problème », tu devrais te renseigner. Ça fout mal d’être aussi catégorique, et ensuite de venir dire que tes connaissances sur le sujet sont limitées.
Les pyramides étaient le tombeau des pharaons, qui étaient vénérés comme des Dieux. Les pyramides devaient durer, elles sont solides (ben oui c’est de la roche), stables (leur forme pyramidale leur a permis de résister à des séismes, contrairement à des bâtiments carrés tenus par des colonnes, c’est si étonnant que ça ?).
Les bâtiments grecs et romains n’avaient pas du tout la même finalité, ils devaient être esthétiques, fonctionnels (termes, fontaines, fora où passait du monde), etc. ils n’ont donc pas aussi bien résisté au temps.
Et il n’y a pas forcément de volonté des égyptiens de faire un truc qui dur ou résiste aux tremblement de terre. Ca peu être simplement une coïncidence. ils ont choisis la pyramide pour le coté pratique au niveau architectural et construction. Et ça à tenu dans le temps.
Les constructions qui n’étaient pas résistante ne sont plus la pour le prouver. C’est en quelque sorte la sélection naturelle. Car on oublis souvent que tout n’est pas planifié/voulu/prévu la part de chance et aussi souvent un facteur important dans les constructions humaine.
Le
23/07/2015 à
09h
53
MuadJC a écrit :
j’attendais plutôt qu’on me parle d’une accélération plus lente, j’aurais alors pu rétorquer qu’en cas d’obstacle imprévu à mi-chemin, ils seraient dans la crotte.
Mais quand je vois qu’il faut une préparation costaud pour supporter les G de nos fusées ridicules, j’ai quand même des doutes pour des explosions de cette violence.
Comme je l’ai dit, il avaient prévu un système d’amortissement pour rester sur une accélération supportable (Bon après c’est de la théorie). Sinon y’a d’autres projet comme le Daedalus un peu plus récent un peu dans la même idée mais en plus élaboré et surement avec une accélération plus douce.
Le
23/07/2015 à
08h
55
MuadJC a écrit :
Avec de la bouillie d’humain à l’intérieur, vu l’accélération ^^ (et la décélération nécessaire au bout)
On parle d’énormes distance et le projet était assez sérieux. l’armée US avait commencé à faire des test en propulsant des capsules lors d’explosion nuc. C’est pas allé plus loin, notamment à cause des problèmes de proliférations nucléaires et de la pollution terrestre (Ils prévoyaient de le faire décoller depuis la terre ). Le véhicule aurait eu au cul une espèce d’énorme bouclier avec avec de gros amortisseurs.
En terme d’accélération les calculs avaient l’air de donner quelque chose de toute à fait raisonnable.
Je crois que tu as un léger soucis de conversion
Tu parles là d’un moteur permettant de propulser une sonde de plusieurs centaines de kilos en continu à 30 000 km/s.
Tu voulais pas plutôt dire 30 000 km/h (dans ce cas, tu multiplies tes 40 ans par 3 600)
Oui. Alors déjà 30.000km/h c’est aujourd’hui le minimum qu’on atteint dans l’espace. Sans forcer. A titre de rappel New Horizon avance à pas loin de 60.000Km/h. Ça c’est pour des systèmes de propulsion classiques et/ou avec de l’accélération gravitationnel. Donc sans trop forcer.
Le second point c’est qu’a partir du moment ou tu accélères ta sonde elle n’a virtuellement pas de limite de vitesse. La seul limite c’est le carburant qui permet d’alimenter ton système de propulsion et d’accélérer. Par exemple, et toujours en restant sur des technos plus ou moins connue aujourd’hui, un moteur Vasimr pourrait propulser un vaisseau 180 000km/h sur un voyage vers jupiter. C’est très théorique mais c’est pour donner des ordres d’idée.
Enfin si t’es un bourrins et que tu as de l’argent tu peux miser sur des technos de propulsion type Orion qui consiste à faire péter des bombe atomique au cul d’un gros vaisseau pour pouvoir l’accélérer jusqu’à 10% de la vitesse de la lumière.
Du coup ça nous ferait un voyage vers le système la plus proche à une 40ène d’année.
Le
22/07/2015 à
19h
02
HarmattanBlow a écrit :
Tout d’abord ils parlent de signaux spécifiques, cohérents, envoyés précisément pour être captés par d’autres civilisations. Donc beaucoup plus faciles à détecter à très longue distance.
Ensuite ce n’est pas que les planètes sont trop petites pour être observées, c’est qu’elles sont éclipsées par leur étoile. Or une étoile émet avant tout dans le spectre visible, c’est justement pour ça que nos yeux se sont adaptés à cette partie du spectre. En-dehors de ce spectre il est beaucoup plus facile de détecter des signaux.
Ça n’a absolument rien à voir : Voyager et New Horizon n’ont pas assez d’énergie pour nous écouter. Et sur Terre il n’y a pas assez de budget pour écouter en permanence Voyager.
Ensuite pour ces sondes on parle de transmission d’informations, donc avec un encodage complexe, pas de simplement reconnaître un signal comme artificiel, conçu pour être identifiable comme tel dans les pires conditions.
Yep mais dans les deux cas on a quand même une atténuation du signale, surtout pour les étoiles les plus distantes. Et le tout peut être noyé /perturbé par d’autre éléments naturel présents dans l’univers ?
Le
22/07/2015 à
18h
59
js2082 a écrit :
Heuuu…
Tu sais à quelle distance se trouve l’étoile la prochaine proche de notre système? (un indice: c’est la 4e étoile la plus lumineuse dans le ciel)
Tu sais quelle est la vitesse moyenne d’un satellite dans l’espace? (non, un vaisseau spatial ne va pas à la vitesse de la lumière)
Tu sais combien de temps il faudrait pour y arriver avec les technos actuelles?
Autant te dire que l’humanité pourrait bien avoir disparu depuis plusieurs siècles
4 année lumière pour la plus proche. Tu sais qu’on a d’autres technos dispo que celle des satellites au moins ? Avec des technos connue on pourrait y arriver en 40 ans sans compter d’autres problématiques.
Le
22/07/2015 à
15h
51
maestro321 a écrit :
Et ce qui a fait de nous des hommes moderne c’est sans doute l’acquisition du langage. Ce qui n’a pas grand chose a voir avec notre maîtrise de la science..
La construction d’un langage avancé est une science d’une certaines manière.
Le
22/07/2015 à
15h
46
js2082 a écrit :
Non, car ce n’est pas du tout ce que ce projet tend à faire, à savoir écouter des planètes.
Dès le départ, le projet anihile toute idée et volonté de faire des découvertes autre que la vie ET.
Direct poubelle du coup.
Pas du tout, et c’est clairement indiqué qu’ils vont développer des outils. C’est aussi clair qu’en analysant ce qui vient de plusieurs millions de planètes tu vas augmenter les connaissances sur ces dernières, affiner les outils pour le faire et sûrement apprendre des choses que tu n’avais pas prévu. Et pas forcément dans l’objectif principale.
Le
22/07/2015 à
15h
41
manfried a écrit :
Certes, mais je voulais surtout mettre en avant le fait que si cette fois-ci le faux-positif avait été détecté comme un faux, il est possible que l’état de nos connaissances ne permette pas de repérer certains faux ce qui finirait pas une annonce de découverte un peu hasardeuse, peut-êtres des missions robotisées envoyées sur place (peu probable vu les distances mais bon) avec des coûts astronomiques, et un discrédit pour la science à la fin. Donc détecter un signal, soit, en tirer la moindre conclusion, je suis sceptique.
Et moi de mettre en avant que les annonces des journaux, sites et autres n’a pas de valeurs scientifique. Du coup si on reçoit un signal il sera sûrement analyser en profondeur et surtout on attendra d’en recevoir d’autres avant d’envoyer quoi que ce soit. Voir essayer de faire d’autres analyses (Observation directe par exemple.)
Le
22/07/2015 à
15h
39
Moff Tigriss a écrit :
Merci pour cette grande explication, claire et concise.
Donc, ok, je fais un raccourci (et encore, j’ai mis des guillemets). L’ESA est financée par l’Europe via de l’argent public investit par les états membres.
Le problème de l’ESA, c’est que son fonctionnement est calqué sur celui d’une entreprise, et qu’elle n’est pas orientée vers le public. Et si tu veux utiliser les données scientifiques, distribuées sous licence fermée, il faut faire partie du sérail. L’accès aux données RAW sont rares (et souvent parce qu’un partenaire extérieur est dans le projet), et la communication est souvent tout juste au niveau d’une conférence de presse puis plus rien. Et il gèrent les crises comme le feraient des grosses entreprises surprises la main dans le sac.
La mission Rosetta est un bon exemple, plusieurs jours pour diffuser une info et silence radio quand ça va mal.
En face, à la NASA, il y a un live chez les ingés de New Horizons, en train de se ronger les ongles devant chaque instabilité de signal.
Tu as la reponse tout seul. Qu’ils aient une mauvaise com. Pourquoi pas. Encore que je trouve un peu rapide pour juger. Mais de la à comparer a une entreprise privée ça n’a strictement rien avoir.
Le
22/07/2015 à
15h
32
le duc rouge a écrit :
Pour ceux qui n’ont pas compris le message de ceux qui pensent que c’est de l’argent gaspillé, il faut comprendre que lâcher 100 millions pour trouver des ET c’est très bien mais après ? on ne pourra jamais y aller alors à quoi ca peut bien servir. Et pour rester dans le même thème (hein, pas des yachts et des filles …), quitte à lâcher autant d’argent, je préférerai qu’on se concentre sur le voyage vers Mars et son éventuelle terraformation !
Le voyage sur mars c’est pas 100 millions mais plutôt 100 milliard et encore je suis gentil, la terraformation n’en parlons pas.
A quoi ça peu servir ? Comme souvent en Science on peu pas prévoir toutes les applications mais ça doit pouvoir permettre de mieux connaître l’univers, de développer de nouveaux outils, etc.
2352 commentaires
L’électro-hypersensibilité reconnue comme handicap par la justice
25/08/2015
Le 26/08/2015 à 11h 46
Le 26/08/2015 à 10h 41
Ce qui est paradoxale c’est qu’en te comportant de la sorte tu participes au discrédit et à ridiculiser la cause que tu défends. Tu passes en plus pour un charlot. Et je t’assures que tu n’aide personne ainsi, bien au contraire.
Le 25/08/2015 à 16h 24
Les développeurs de Star Citizen menacés par une action de groupe
26/08/2015
Le 26/08/2015 à 08h 52
Company of Heroes 2 et DiRT : Showdown débarquent sous Linux
18/08/2015
Le 19/08/2015 à 08h 29
Le 18/08/2015 à 20h 52
Edge : Microsoft propose des machines virtuelles pour les développeurs web
18/08/2015
Le 18/08/2015 à 14h 51
Le 18/08/2015 à 14h 38
Le 18/08/2015 à 13h 06
“Des technologies qui pourraient permettre à terme de fournir des solutions beaucoup plus légères.”
J’en doute, sauf à mettre tout windows dans le container auquel cas on revient au même problème de la taille. Je vois pas bien comment cela pourrait améliorer les choses. Je suis même pas sur que ça puisses fonctionner.
Les deux seuls options que je vois c’est d’offrir une version multiplateforme d’IE, ou de proposer un service gratuit dans le cloud qui permette de visualiser les résultats sous différentes version d’IE+Windows.
GitHub Desktop 3.0 est là, avec une visualisation graphique des branches
12/08/2015
Le 13/08/2015 à 07h 24
Le 12/08/2015 à 21h 11
Le 12/08/2015 à 21h 10
Le 12/08/2015 à 15h 52
Toujours pas de version Linux prévue ?
Star Citizen se prépare à accueillir des vaisseaux multipostes
10/08/2015
Le 10/08/2015 à 14h 06
LibreOffice 5.0 : un grand ménage et de nombreuses améliorations
05/08/2015
Le 05/08/2015 à 15h 30
Go Faster, GTK+3, interface, Idea Town : les nombreux travaux en cours de Firefox
29/07/2015
Le 29/07/2015 à 14h 15
Le 29/07/2015 à 13h 40
Le 29/07/2015 à 13h 36
Le 29/07/2015 à 11h 37
Pour moi HTML est suffisamment complet déjà par rapport à XML. Le XML ça fait 10 ans qu’il n’est plus mis à jours. Du coup autant miser sur une techno qui avance. De plus ça permet d’amplifier encore plus la convergence web/applications. Et c’est important pour Mozilla quand on sait qu’ils utilisent déjà pas mal de technos web sur leur OS il me semble.
Le 29/07/2015 à 11h 17
Stagefright : ce que l’on sait de la faille qui permet de pirater Android via un simple MMS
28/07/2015
Le 28/07/2015 à 16h 03
Le 28/07/2015 à 15h 20
L’Open Source n’a strictement rien avoir ici. C’est simplement que Google n’a pas la main sur les mises à jours des smartphones des constructeurs.
Le 28/07/2015 à 14h 06
Le 28/07/2015 à 13h 47
Next INpact : deux ans de contenus abonné et un retour aux bénéfices en 2014
27/07/2015
Le 27/07/2015 à 15h 03
Le 27/07/2015 à 14h 47
Le 27/07/2015 à 14h 20
Le 27/07/2015 à 12h 41
Le 27/07/2015 à 12h 21
WordPress 4.2.3 : une mise à jour de sécurité à cause d’une faille XSS
24/07/2015
Le 24/07/2015 à 21h 56
Internet par satellite : Eutelsat refuse les nouveaux clients dans 28 départements
24/07/2015
Le 24/07/2015 à 14h 55
Le 24/07/2015 à 14h 08
Le 24/07/2015 à 11h 49
Le 24/07/2015 à 08h 33
Le 24/07/2015 à 07h 46
A noter que certains opérateurs ont supprimé la limitation en data.
Le 24/07/2015 à 07h 35
Breakthrough Initiatives : 100 millions d’euros pour rechercher de la vie extraterrestre
22/07/2015
Le 24/07/2015 à 09h 59
Le 23/07/2015 à 20h 40
Le 23/07/2015 à 14h 50
Le 23/07/2015 à 09h 53
Le 23/07/2015 à 08h 55
Le 23/07/2015 à 07h 53
Le 22/07/2015 à 20h 57
Le 22/07/2015 à 19h 02
Le 22/07/2015 à 18h 59
Le 22/07/2015 à 15h 51
Le 22/07/2015 à 15h 46
Le 22/07/2015 à 15h 41
Le 22/07/2015 à 15h 39
Le 22/07/2015 à 15h 32