Il y a 2ans, j’ai vu une fille sortir du métro en courant et en me confiant sa valise, elle venait de se faire voler son téléphone par une poignée de jeunes roms que j’avais croisé 10 secondes plus tôt en train de courir dans les escaliers. Dans l’immédiat, elle avait un train à prendre. Là on est plus dans le désagréable, on est au moins dans le pénible.
Quel était le sens de ton argument ?
Et le sens de votre argument, quel est t’il ?
Croyez vous sincèrement que la Police a le pouvoir magique de solutionner tous les problèmes de sociétés ?
Aujourd’hui, les politiques se couchent devant une mondialisation qui organise la précarisation des peuples, le dumping social et les fractures sociales.
Dans cet océan de misère sociale, les organisations criminelles poussent comme des champignons.
Les politiques sécuritaires ne font au mieux que s’attaquer marginalement aux symptômes du problème, mais non au problème lui même.
Au passage, il y a un bug de quote, ce n’est pas moi qui ait écrit le passage que tu as cité.
OlivierJ a écrit :
C’est mon cas, suis passé des registres 8 bits du 6502 (Commodore 64) aux 32 bits du 68000 (Amiga) et quel changement fabuleux, que ce soit pour les calculs, ou pour l’adressage.
Entre ces deux processeurs, c’était effectivement le jour et la nuit en terme de confort de programmation.
Sinon, pour la petite histoire, l’Amiga ne descendait pas du C64, mais… de son concurrent.
ldesnogu a écrit :
Pour le move, ca ne passe pas par les ALU donc c’est normal.
Et concernant ce que raconte Wikipedia, tu m’excuseras de preferer le manuel 68000 de Motorola et celui-ci qualifie le 68000 de 16⁄32-bit et le 68020 de 32-bit ;-)
Apres tout ca, c’est de l’enfilage de mouche. Bien que je ne considere pas le 68000 comme un “vrai” 32-bit, sa capacite a gerer quasiment tout en 32-bit etait un indeniable avantage !
100% d’accord.
Le problème, c’est de savoir quel est le critère qui permet de dire qu’un processeur est 32 bits. Il y a beaucoup de parties dans un processeur et chacune peut travailler avec un nombre de bits différent. Par exemple, même sur un 68020, la multiplication ne se fait pas en 32 bits en une seule passe. Certaines versions du 68020 ont un bus d’adresse sur 24 bits comme le 68000.
En fait, dans les processeurs, il y avait toute sortes d’hybrides. S’il est certain qu’un 68020 ne suscitera pas de débat, c’est plus difficile avec un processeur comme le 68000 et encore plus discutable pour le Z80. A partir de quel niveau de limitation décide t’on qu’un processeur passe d’une catégorie à l’autre ?
Le terme 16⁄32 bits était effectivement souvent utilisé, mais techniquement parlant, il ne nous dit pas si nous devons classer ce processeur dans les 16 bits ou les 32 bits. C’est encore plus compliqué quand on sait que le le bus d’adresse était en 24 bits…
Mais au fond, quelle importance de savoir si le 68000 était 16 ou 32 bits ? Cette information n’a pas grande importance pour les techniciens. Pour eux, ce sont les détails qui comptent… et ils les connaissent.
Dans l’informatique, le fait qu’il y ait beaucoup de flou dans les définitions n’empêche personne de dormir. Contrairement aux mathématiques, l’informatique est une science concrète ou personne n’a envie de passer son temps à déterminer le sexe des anges. L’important, c’est que le programme fonctionne bien.
Le
14/10/2016 à
03h
16
ldesnogu a écrit :
Encore une fois c’est partiellement faux : les variantes des instructions de calcul 32-bit .L etaient plus lentes que les versions 16-bit .W. Par exemple 4 cycles pour add.w d0,d0 vs 6 pour add.l d0,d0. Et ca c’est pas une question d’acces memoire ;-)
Oui, certes.
Mais ça fait quand même une différence notable en programmation assembleur de pouvoir travailler avec des instructions qui travaillent en 32 bits plutôt que de faire un gymkhana avec plusieurs instructions 16 bits.
Ceux qui ont connu la programmation 6502 “pur 8 bits” comprendront pourquoi ce qui compte le plus, c’est le jeu d’instructions. Le nombre de cycle étant plus une donnée de performance.
Le gain de confort était particulièrement criant entre 8 et 16 bits. Ca restait encore très vrai entre 16 et 32 bits.
Le passage de 32 à 64 bits, ne change plus grand chose du point de vue confort de travail car la plupart des données avec lesquels un programme travaille tiennent en 32 bits.
Le
14/10/2016 à
03h
08
Cashiderme a écrit :
C’est pas une question d’être lent ou pas, c’est la question du nombre de bits manipulés par cycle. Même avec des registres de 16 bits, le z-80 n’en manipule que 8 par cycle : c’est un proco 8 bits.
WikipediaSi on pose les choses de cette façon, de combien de bits doit t’on qualifier les processeurs actuels ?
Mais je ne sais pas s’il existe vraiment une définition officielle et précise de ce qu’est une architecture 8 bit ou plus. On peut en discuter longtemps.
Je crois qu’il n’y a effectivement pas de vraie définition officielle.
Mais ce que je peux dire, c’est que le fait d’avoir des instructions capables de manipuler plus de bits, ça faisait à l’époque une vrai différence en terme de programmation.
Ceux qui ont programmé sur un 6502 qui était un pur 8 bits qui n’avait que des registres 8 bits à part le program counter comprendront pourquoi je fais une différence.
Ah bon, moi jamais. C’est un “clone” améliroré du 8080, lui même une amélioration du 8008, nommé ainsi parce que c’est un 8 bits, par opposition à son prédécesseur le 4004, qui était un 4 bits (dixit Intel).
Si on va par là il n’y à jamais eu de 8 bits pur du coup, ils pouvaient tous addresser plus que 8 bits. (14 pour le 8008, jamais entendu parlé de proco 14 bits " /> )
Effectivement, la plupart des processeurs 8 bits que l’on connait avaient un espace d’adressage de plus de 8 bits. Donc des “purs” 8 bits n’ont pas vraiment existé.
Le
14/10/2016 à
02h
27
DEATH a écrit :
Amusant cette guerre Amiga/Atari, surtout ceux qui annoncent fièrement “ouais l’Amiga c’était le top, une architecture de rêve” et j’en passe. C’est oublier que d’une, à leur sortie respective, l’Amiga 500 pouvait coûter jusqu’à 2 fois plus cher que l’Atari ST. Sachant qu’ils sont sortis à quelques mois à peine d’intervalle, et que l’Atari ST est sorti en premier.
Non, l’Amiga 500 et le ST se sont rapidement retrouvés à des prix peu éloignés, l’amiga était juste un poil plus cher.
Et de 2, si on écarte le critère du prix (ce qui semble être le cas non ?) à la même époque il y avait le X68000, qui écraaaaaase littéralement toute autre machines du moment (en tout cas celles à base de 68k).
Sauf que cette machine était totalement inconnue ici.
L’Amiga et le ST étaient vraiment courants.
[quote]Autre chose, techniquement (c’est à dire ce qui est référencé dans les manuels, les définitions, etc.) ce qui défini la taille de l’architecture d’un processeur, c’est (avant) tout la taille de son (ou ces) ALU. Rien d’autre.
Le 68000 a une ALU de 16bits, c’est donc bien un 16bits avant tout. En allant plus loin, il a une ALU de 16bits, un bus de données physique de 16bits, et des opcodes sur 16bits, mais comme il a des registres 32bits il est qualifié “vulgairement” (voir même abusivement) de processeur 16/32 bits. Mais ça reste un 16bits.[quote]
Regarde la taille des différentes ALU, des bus de données et le codage des opcodes sur un x86 moderne, tu comprendra que c’est bien le jeu d’instruction est le meilleur critère.
Le
12/10/2016 à
22h
20
Cashiderme a écrit :
Je connais pas bien le 68000, mais c’est pas d’avoir des registres 32 bits et d’avoir des instructions capable de traiter les 32 bits en une opcode qui fait un processeur 32 bits. Il faut voir en combien de cycle l’operation est executée.
Je ne suis pas d’accord. Ce qui fait qu’on qualifie l’architecture d’un processeur de 16, 32 bits ou de 64 bits, c’est d’abord le jeu d’instruction et les registres de données/adresses.
Le fait de savoir s’il est lent ou rapide, c’est un autre problème. Le fait est qu’il peut exécuter des programmes qui travaillent en 32 bits et utilisent des instructions 32 bits suffit à qualifier l’architecture de 32 bits.
J’ai pas mal travaillé sur le Saturn (qui equipait les calculatrices HP), et malgré ses registres de 64 bits, c’était un proco 4 bits seulement. Les instructions traitant un registre entier prenaient bien 16 fois plus de cycles que la même instruction n’utilisant que 4 bits du registre.
Si le processeur dispose d’une majorité d’instructions capables de manipuler des données et des adresses sur 64 bits, c’est un processeur 64 bits. Le fait qu’il soit très lent n’y change rien.
De même que personne ne dirait du z80 qu’il est 16 bits, bien qu’il ai des registre de 16 bits (en fait des registres 8 bits utilisables par paires), et des instructions pour les utiliser d’un coup (mais en plus de cycles).
Justement, il pêchait un peu côté jeu d’instructions. Cela dit, j’ai déjà entendu qualifier le Z80 de 16 bits.
Le
12/10/2016 à
21h
51
OB a écrit :
J’pense surtout que c’est 2 visions complètement différente:
Combien de gens upgradent l’OS de leur TV, de leur montre ou de leur téléphone ?
Vu que ces appareils n’ont pas été conçu pour permettre l’installation aisée d’un Os, c’est assez logique que personne ne le fasse.
C’est un peu comme si on concluait qu’aucun prisonnier n’aspirait à la liberté sous prétexte qu’ils restent à longueur de temps dans leur prison.
Les processeurs Intel sont à la fois cher et ont une gamme de prix de 1 à 10 - un proc. ARM de base coute moins de 1€ à produire & intégrer en dehors du cout de la licence - c’est pas les mêmes appareils , au départ.
C’est récent que le haut de gamme de l’ARM commence à rattraper le bas de gamme du x86, et qu’on commence à voir une volonté de garder les plateformes au fur et a mesure des versions d’OS.
Certes, mais la question c’est de savoir si intel ne peut pas faire mieux sur les prix. Entre un x86 d’entrée de gamme et un ARM à la puissance similaire, j’ignore si l’ARM dispose encore d’un avantage en terme de transistors et donc de coût de production.
La question, c’est de savoir à quel moment Intel va commencer à se sentir assez menacé pour réagir et se poser les bonnes questions. Mais comme on l’a vu avec l’architecture Core, quand intel décide qu’il faut vraiment bouger, avec les moyens qu’ils ont, ça peut faire très mal.
Le
12/10/2016 à
21h
08
akeix a écrit :
Euh non, par défaut, c’est du “.W” sur la famille 68k. Cela dépend aussi de l’assembleur utilisé.
Par exemple l’instruction add #8,d0 devient :
addq #8,d0 sur l’assembleur Microtec
add.w #8,d0 sur l’assembleur GNU
Du coup, le code généré n’est pas identique.
D’ailleurs, quelle signification peut t’on donner au fait que des assembleurs choisissaient .w en cas d’oubli de spécifier la taille ? Ca ne veut par définition rien dire. Ils auraient d’ailleurs mieux fait de renvoyer une erreur.
Le
12/10/2016 à
20h
57
cyrano2 a écrit :
Les POWER ne sont pas RISC du tout. Ils n’ont rien à avoir avec les powerpc, et sont justement des monstres CISC microcodé jusqu’à l’os. RISC ou CISC se termine par “instruction set”, on parle bien du jeu d’instruction et pas du tout de micro architecture. Donc, non, Intel ne fait pas du tout du RISC en décomposant en micro instruction, puisque c’est justement en utilisant du micro code que fonctionne un CISC.
Si, tous les programmes écrient “avant” étaient compatible (sauf les OS en gros). C’était le mode 8 bits et 16 bits.
Certes, les lettres “IS” signifient bien “instruction set”. Mais ce ne sont que des mots inventés par des vulgarisateurs.
Dans la pratique, cela renvoyait bien à des concepts d’architecture précis.
La raison d’être du jeu d’instruction des processeur RISC avait bien un but précis : permettre de simplifier le décodeur d’instruction et de se passer de micro codage.
Le
12/10/2016 à
20h
44
OlivierJ a écrit :
Il n’est pas tombé dans l’impasse, il reste du RISC (mais pas en grand public, soit ARM, soit les gros POWER d’IBM et les Sparc de Sun par exemple), et le CISC a pris des mécanismes du RISC, par exemple les CPU Intel décomposent les instructions CISC en instructions plus simples ce qui s’apparente à du RISC en interne.
Cela n’est pas aussi simple.
A l’origine, ce qui faisait la spécificité de l’architecture “RISC”, c’était justement d’éviter le micro codage avec des instructions “cablées” qui se contentaient de mécanisme d’exécution très simples et rapides.
Aujourd’hui, ce type de CPU a complètement disparu sur les ordinateurs, même si on trouve encore des survivances dans l’embarqué.
Et le fait de décomposer les instructions en micro code était justement la base du concept de l’architecture CISC.
Techniquement, les CPU actuels sont plutôt des CISC, même ceux qui ont un jeu d’instruction qui rappelle le RISC.
Aujourd’hui, si le débat est dans l’impasse, c’est parce que ce qui fait l’efficacité d’un processeur actuel tient à de nombreux concepts et mécanismes complexes qui n’ont plus rien à voir avec le débat simpliste RISC/CISC de l’époque qui est de fait obsolète.
IBM a construit une nouvelle architecture avec son PC, le 8086 n’avait pas à être compatible avec quoique ce soit avant, le 68000 aurait très bien pu être choisi (comme il l’a été par Apple et d’autres).
Oui. Le problème c’est que le PC est une machine qui a été conçue à la va vite.
Remarquons que c’est paradoxalement ce qui a fait sa force. IBM n’ayant même pas pensé à “verouiller” sa conception.
S’ils l’avaient vraiment réfléchi “comme il faut”, ils seraient probablement aussi tombé dans les mêmes erreurs que les autres. Et ce PC la n’aurait sans doute pas eu le succès que l’on connait.
Le
12/10/2016 à
15h
00
OB a écrit :
Mouais….
Autant je respecte les arguments de Linus - sur l’écosystème , autant je pense que cette hégémonie provient surtout du fait que Intel & Microsoft ont bossé étroitement des années, et aussi du fait que les constructeurs devaient avoir une plateforme 100% compatible Windows pour avoir un espoir commercial…. Du coup ça a un peu “nivellé par le bas” l’évolution…
Et surtout, il passe complètement sous silence les problèmes de sécurités soulevés ces derniers temps autour des plateforme x86 : Les multiples problèmes des bios UEFI, le SMM, les problèmes de leak d’info avec le Ring -1 ou la DDRam , l’AMT…
J’entends tes arguments, mais en même temps, sans standard une plateforme ne vaut rien. On ne peut même pas changer d’Os ou l’upgrader. C’est une sacré limitation.
Et effectivement, Microsoft a bossé des années sur le concept de compatibilité. Bien avant Windows, on se souvient de MSX…
Dommage que les fabricants de machines ARM nous aient ramenés vers le passé…
Le
12/10/2016 à
14h
53
AlphaBeta a écrit :
Le fait que cela soit du RISC ne veut pas dire qualité…. les vendeurs de licences ARM prospèrent sur l’avènement de l’iphone et ce qui a suivi, mais si apple avait pris un autre jeu d’instruction, cela aurait été la même chose avec le concurrent….
N’oublions pas que les meilleurs ARM arrivent péniblement au plus bas du bas de gamme x86.
Avec le temps, le débat RISC/CISC est finalement tombé dans l’impasse. Il y a 30 ans, le modèle RISC paraissait être le futur. Aujourd’hui, on sait que le CISC a aussi de redoutables avantages.
Globalement, on sait qu’a terme, ARM devrait finir par rattraper intel sur le plan des performances. Ce n’est pas un problème de jeu d’instructions.
Mais la différence, la vraie, c’est que le jeu d’instruction x86 est franchement bordélique et je ne connait aucun programmeur qui l’ait apprécié.
Le
12/10/2016 à
14h
40
ldesnogu a écrit :
Hum je n’ai jamais reussi a considerer le 68k comme etant 32-bit : les registres etaient certes sur 32 bits, mais toutes les unites de calcul etaient sur 16 bits, d’ou les penalites en execution qu’on se prenait lorsqu’on faisait des calculs sur 32 bits ; d’ailleurs en assembleur le .W etait le defaut, pas le .L " />
Blague a part, la taille des registres me semble vraiment insuffisant pour declarer la largeur d’une archi. D’ailleurs Motorola parlait de processeur 16⁄32 pour qualifier le 68000 (c’est ce qui a donne le nom a l’Atari ST, Sixty/Thiry-two).
C’est exact, ces processeurs étaient qualifiés à l’époque de “16⁄32 bits” dans les docs commerciales parce que tout n’était pas 32 bits dans le 68000.
Mais le débat était de savoir quel processeur avait un jeu d’instruction 32 bits. Et celui du 68000 était réellement 32 bits. Ce qui permettait de faire tourner les programmes écrits sur 68000 sur des processeurs plus rapides par la suite.
Blague a part, la taille des registres me semble vraiment insuffisant pour declarer la largeur d’une archi. D’ailleurs Motorola parlait de processeur 16⁄32 pour qualifier le 68000 (c’est ce qui a donne le nom a l’Atari ST, Sixty/Thiry-two).
En premier lieu, c’est le jeu d’instruction qui compte. Mais il est évident qu’en pratique, il y a des subtilités.
Si seulement IBM avait pris le 68k, on ne se trainerait pas cette sombre bouze de x86…
Clairement…
Le
12/10/2016 à
14h
24
OlivierJ a écrit :
Oui, et le 68020 (totalement 32 bits au niveau des bus) est sorti 2 ans avant le 80386 (en pratique sorti en 1986) :  Wikipedia.
Le 68000 avait effectivement un bus d’adresse externe de 24 bits.
Mais les 16Mo d’espace d’adressage permis par ces 24 bits n’ont jamais réellement handicapé les machines à l’époque.
Le
12/10/2016 à
14h
14
OlivierJ a écrit :
Clairement !
C’était aussi du 68000, mais l’Amiga était tellement en avance, surtout côté logiciel.
… et matériel.
Les circuits intégrés du ST n’avaient rien à voir avec l’oeuvre d’art qu’étaient ceux de l’Amiga.
J’ai été surpris de lire cette phrase sur le jeu d’instruction 32 bits à un tarif accessible, pour moi le 68000 a déjà un jeu d’instructions 32 bits, c’est la taille des registres ! Sur Amiga on n’était déjà plus en 16 bits, on avait 512 k de mémoire par défaut, adressage linéaire.
Oui, jeu d’instruction 32 bits et registres 32 bits. Et contrairement aux Os PC de l’époque, sur 68000 il n’y avait pas cette horrible segmentation de la mémoire.
Le
12/10/2016 à
14h
08
Slash a écrit :
Amusant ! Torvalds reproche à ARM la fragmentation qu’ils ont créé à cause de leur modèle (licences accordées à des constructeurs tiers), une fragmentation (licences mises à part) comparable à l’écosystème linux, qui est tellement fragmenté qu’il ne peut s’imposer correctement face à Windows/MacOS et n’est efficace que dans des applications bien spécifiques (servers…)
Balayer devant sa porte tout ça… " />
Non.
Le problème, c’est que le monde ARM s’est développé en se moquant totalement de développer le moindre standard pour permettre la compatibilité. Par exemple, il n’y a pas de Bios pour abstraire à minima l’accès au matériel.
A cause de cela, il est impossible de booter le même Os issu d’un support unique sur toutes les machines comme on le fait sur un PC.
Même Android est affecté, c’est la raison pour laquelle il n’est pas possible d’upgrader facilement l’Os des smartphones.
Linus a totalement raison, la plateforme x86 a encore de beaux jours devant elle car elle est bien plus aboutie que la plateforme ARM.
Quand aux smartphones sous ARM, à ce stade, il faudrait quasiment une intervention politique pour régler le problème. Une loi obligeant les constructeurs à vendre séparément l’appareil et l’Os.
Faute de quoi l’histoire risque de se répéter… et le succès d’intel perdurer.
proposant un jeu d’instruction 32 bits à un tarif accessible.
La premiere machine 32-bit a un tarif accessible fut l’Archimedes, a moins de 10.000 F, a une epoque ou les PC a base de 80386 coutaient bien plus de 20.000 F. Et c’est amusant, y’avait un ARM dedans.
Pour le reste c’est vrai ARM est a la traine niveau materiel desktop/latpop. Meme si l’ouverture des PC disparait peu a peu avec par exemple des firmwares lockes.
Hum, en pratique ce fut plutôt le 68000 de Motorola qui a été le premier processeur à jeu d’instruction 32 bits vendu à un tarif accessible.
Une question, existe t-il un autre systeme d’affiche que via des pixels ?
Cela permettrait d”éliminer le soucis de zoom sur un écran qui du coup revèle ceux ci .
Il y a très longtemps, il y a eu des affichages vectoriels.
WikipediaMais le fait de zoomer ne révèle pas les pixels de l’écran qui sont très petits (surtout sur les 4k), mais le manque d’information de l’image agrandie. Sauf bien sûr si tu entends par zoomer le fait d’utiliser une loupe sur un écran.
On te classe dans la catégorie “vieux con râleur éternel” du coup ? " />
Il y a eu une période dans l’histoire du jeu vidéo ou l’on est passé de la création artisanale et passionnée à celui d’industrie qui pondait frénétiquement des jeux clonés sans âme au kilomètre (c’est à dire faits en 3 semaines).
Comparativement, c’est beaucoup mieux aujourd’hui.
Si ca marche, c’est que ca répond à une certaine attente, pas les tiennes certes, mais je réitère ma remarque, suffit de se placer du côté de la plus jeune génération, qui apprécie des jeux AAA tout simplement car ils n’ont pas les mêmes attentes / critères que toi/nous. Cela dit, je ne dit pas pour autant qu’ils ont des goûts pourris, juste des attentes différentes.
Les joueurs débutants ou occasionnels sont logiquement moins exigeants. C’est un peu comme pour tout dans la vie. C’est avec l’expérience qu’on apprends à faire le tri entre ce qui est bon et ce qui l’est moins.
Le
12/10/2016 à
18h
08
Maxtab a écrit :
Y’a aussi une part de: On vieillit, et plus on engrange l’expérience de “bons jeux” plus on devient exigeant. Suffit d’aller voir à quel point les plus jeunes s’éclatent avec des jeux AAA que beaucoup ici trouvent pourris. Y’a 20 ans, on trouvait peut-être des jeux excellents que des plus “anciens” trouvaient vraiment pourris.
Moi, il y a 25 ans, je trouvais déjà que la majorité des jeux étaient pourris. Et je crois qu’objectivement c’était vraiment le cas. On voyait la différence avec l’époque d’avant.
Cela dit, je dresse le même le même aujourd’hui. Beaucoup de boites font du jeu pour vivre, donc elles pondent du jeu en se conformant aux standard du moment qui sont réputés “marcher”, mais ça manque d’âme, de prise de risque, d’originalité.
Mafia I fait partie des jeux que j’ai vraiment apprécié.
Le
11/10/2016 à
20h
15
BTCKnight a écrit :
J’avais aussi bien aimé Mafia 2.
C’est un plus que le 3 soit un peu pourri…. comme ça je l’achèterai pour pas cher dans un an quand il sera soldé …
A contrario, GTA V se vend trop bien…. et n’est pas vraiment sérieusement soldé, ce qui me retient de l’acheter…
T’inquiète pas, il y toujours un moment ou les commerciaux craquent.
Suffit d’être patient…
Le
11/10/2016 à
20h
13
kamizol a écrit :
Ils ont pourri la license " /> . Mafia 1 est, et restera le meilleur.
Clairement, et de très loin.
Scénario, ambiance, musique, graphisme, physique de jeu. Le premier opus est un vrai bijoux, une oeuvre d’art.
Le second est bien réalisé et globalement un bon jeu, mais le scénario et l’ambiance n’atteint clairement pas le niveau du premier. Je le conseille tout de même car cela reste un excellent jeu qui se rejoue étonnamment bien.
Dommage pour ce troisième opus. Vu ce qu’on en dit, je ne l’achèterais pas. En tout cas pas au tarif actuel.
Dommage d’avoir sacrifié une aussi belle licence. Car hélas, un tel ratage signe bien souvent la fin d’une licence.
Tu noies quelques propos sensés dans un gloubi-boulga indigeste de choses approximatives ou erronées " /> . Je m’arrête là même s’il y a encore beaucoup à dire.
J’était certain de ta réponse dans la mesure ou j’ai développé des angles de vision avec lesquels tu ne semble pas très à l’aise.
Il faut savoir qu’il existe d’autres modes de pensée que le cartésianisme dont la redoutable limite est l’incapacité d’appréhender des phénomènes réelles quand ils ne sont pas (ou pas encore) quantifiables de manière numérique et précise.
D’où la situation très embêtante auquel on aboutit si l’on n’apprends pas à penser autrement : Le cartésien refuse d’appréhender ce qu’il ne sait pas mesurer. L’ennui, c’est qu’il ne saura jamais mesurer ce qu’il refuse d’appréhender.
La vie est faite de quantités de choses qu’on ne saura jamais mesurer.
Pour le reste, je te pardonne volontiers de mettre fin à cette discussion. Aussi intéressant que soient les discussion sur les forums, c’est chronophage. Et comme on dit, il y a une vie en dehors d’internet.
Je te souhaite une bonne soirée.
Le
13/10/2016 à
00h
04
OlivierJ a écrit :
Franchement tu racontes beaucoup de bêtises dans tes commentaires.
quel boulevard ? Et plus on cherche, plus on se pose de question. On a trouvé bien plus de choses au 20e siècle qu’aux siècles précédents, et si on compte ces 15 dernières années, ça a dû encore accélérer.
Je vous engage à comparer les découvertes faites ces derniers temps et les moyens consacrés avec les découvertes des pionniers du 19 et du 20ième siècle.
Comparez les moyens et les découvertes d’une Marie Curie dans le fond de son labo et celles de l’armée de chercheurs derrière leur accélérateur de particules qui coûte une montagne d’argent.
Autre exemple, dans les semi conducteurs, pour gagner en finesse de gravure, il faut autrement plus de recherches et d’argent aujourd’hui qu’il y a 40 ans.
Sincèrement, je pense que ce que je dit n’est pas du tout des bêtises. Mais je pense aussi que ça ne sers à rien de continuer d’en discuter. Réfléchissez y et faites vous votre avis…
en informatique, il y a encore beaucoup de choses à chercher, je pense simplement au sujet de doctorat de mon frère sur la preuve de programme, qui se base sur des mathématiques, et les voies de recherche ne manquent pas.
Et pour cause, l’informatique est l’une des science les plus jeune.
Pas de secret, il y a beaucoup moins de gens qui sont passés avant eux qu’en science fondamentale.
Mais je me souviens d’un temps ou il y avait tant à découvrir. Ce temps la est déjà révolu…
Ah. Et comment on fait voler les avions ? Et si on fait voler des avions de 200 tonnes, on ne peut pas faire voler des voitures d’une tonne ? Le problème des voitures volantes et qu’il s’agit d’avions, et que c’est autrement plus délicat à “conduire” (+ risques de crash et de collision, surtout près du sol ou sur les bâtiments).
Pourtant, c’est bien au ras du sol, la ou les voitures roulent sans voler que l’environnement est le plus encombré et difficile. Et pourtant, on envisage bien de faire des voitures qui roulent seules…
A quelques dizaines de mètres, dès qu’on passerait au dessus des immeubles, il y a de la place, beaucoup plus d’espace et moins d’obstacles.
Les phénomènes aérodynamiques ne sont pas si difficiles à appréhender et à stabiliser avec des ordinateurs. Il suffit de voir ce que font les drones avec quelques puces…
Reste le problème qu’effectivement, cela poserait indéniablement plus de problèmes de sécurité.
Mais attention, je n’ai pas dit que c’est facile, juste que ce n’est pas insoluble.
Et le pétrole est déjà une source d’énergie puissante et compacte (avec 50 l certaines voitures font près de 1000 km).
Je te l’accorde. Mais la science fiction rêvait de sources d’énergies capables de propulser l’équivalent d’une voiture dans l’espace.
Quand aux dérivés du pétrole, c’est une énergie limitée et polluante.
Tu notera que de nombreux prototypes de voitures volantes existent et certains sont même fonctionnels (même s’ils ne se pilotent pas tout seuls), mais ils semblent tous issus de petits concepteurs.
Déjà l’humanité sait que tout le monde ne pourra pas posséder sa voiture, ça sera encore plus vrai pour une voiture-avion qui est autrement plus coûteuse à construire et consomme autrement plus.
Je ne vois pas des très grands industriels se lancer dans une voie qui ne pourra jamais atteindre un volume de production très important, même si on solutionne le problème du pilotage. Et c’est certainement la raison pour laquelle aucune multinationale n’investit massivement dessus.
Evidemment que c’est très facile de mesurer l’accès à l’eau potable, aux médicaments, l’espérance de vie, etc. Et on le fait.
Facile ?
Quand on voit nos “élites” tomber des nues en découvrant la pauvreté qu’il y juste sous leurs fenêtres…
Et toute l’hypocrisie qu’il y a autour de l’accès aux soins “théoriquement accessible à tous” sur le papier, mais dont beaucoup de gens pauvres se passent dans la pratique faute de moyens, que ce soit en Europe ou aux USA.
Vu les difficultés qu’on a déjà a savoir ce qui se passe réellement ici, permet moi de douter de notre capacité à savoir ce qui se passe dans un pays lointain.
Dans la vie, il y a la théorie et la pratique.
Je n’ai pas parlé de bonheur, on va éviter de se lancer dans des notions vagues et peu mesurables (contrairement au niveau de vie et d’hygiène au sens large).
Justement, le problème c’est bien que ne mesurons pas ce qui est le plus important : est ce que les gens sont vraiment heureux et quelles sont les variables qui influent sur le bonheur.
Faute de se poser les bonnes questions, tous nos choix de sociétés sont faussés.
Nous arrivons à des non sens évidents. Des pays qui ont de bons chiffres économiques, avec une proportion toujours plus grande de personnes malheureuses (si on en croit les statistiques…).
Des personnes qui bossent dans des multinationales et qui ont “tout” suivant les critères de niveau de vie mais dont le taux de suicide est curieusement plus élevé que dans une tribu pauvre au fin fond de l’Afrique.
Un monde qui s’extasie sur sa productivité toujours plus grande de merdouilles en plastique… et qui produit toujours plus d’exclus…
Alors oui, il est difficile de quantifier le bonheur avec des chiffres. Ce qui implique que sur certains sujets, toute la science du monde ne remplacera jamais la sagesse et l’expérience de la vie.
Cela dit, je pense qu’un peu plus de formation en sciences sociales de terrain améliorerait grandement la compréhension théorique.
Jusqu’à présent les gens fuient les pays pauvres (où manquent beaucoup de choses comme la santé et la paix) pour aller dans des pays où la vie y est plus facile, et très rarement l’inverse, alors évite de trop relativiser sur les pays développés (sans guillemets).
Justement, il faut connaitre les réalités de terrain pour comprendre.
Ceux qui partent de leur pays pour immigrer en occident n’ont la plupart du temps pas la moindre idée de ce qu’ils vont trouver réellement. Le satellite transmet des images de télévision, ils voient des voitures, des gens bien habillés. Ce qu’ils imaginent est un fantasme d’eldorado qui ne correspond à aucune réalité. Bien sûr arrivés ici, beaucoup déchantent.
Ensuite, il y a ceux qui viennent pour travailler parce que le taux de change entre notre monnaie et celui de leur pays leur permettra de se payer un hotel ou un commerce chez eux et de vivre richement après seulement quelques années de travail misérable ici.
Haha, la structure juridique et comptable au Burkina-Faso (exemple pris au hasard), c’est sûr que c’est ça qui change leur agriculture.
Pas besoin d’aller au Burkina-Faso.
Tonds ta pelouse : tu n’a rien produit. Aucune statistique n’a bougé par cette action.
Monte une entreprise et facture la tonte de la pelouse à toi même : Ta production existe dans les statistiques.
Une famille qui vit dans une tribu au fin fond de la brousse n’existe statistiquement pas. Le bonheur de son mode de vie n’est quantifié nulle part. Quand la grande industrie vient exploiter un pays, il rentre dans les statistiques… et l’on pense avoir apporté le bonheur au gens.
Sans blague… C’est la première chose qu’on apprend en cours de statistiques (j’en ai fait jusqu’en maîtrise).
Donc non on ne fait pas dire n’importe quoi au chiffre, sauf si tu prends une minorité d’études mal conduites.
Le problème, c’est qu’en statistique, la rigueur des chiffres et des méthodes ne suffit pas. Il n’existe aucune méthodes pour prouver mathématiquement qu’on ne s’est pas trompé dans une analyse, qu’on a bien collecté des données pertinentes au bon endroit. Et surtout que les données veulent dire ce qu’on imagine qu’elles veulent dire.
Il faut faire du marketing pour apprendre que selon l’angle de vue que l’on adopte dans l’analyse, un même fait peut donner une conclusion très différente. Pour simplifier à l’extrême, c’est l’exemple du verre à moitié vide/à moitié plein. Dans les deux cas, l’analyse est juste…
Enfin, il faut comprendre que le simple fait d’isoler un chiffre du contexte qui l’a généré (contexte social, etc..) peut lui enlever toute pertinence pour celui qui l’analysera. C’est un peu comme quand on analyse une phrase sortie d’une conversation. Elle peut perdre de son sens par le simple fait d’avoir enlevé le contexte qui permet de la comprendre.
Le
12/10/2016 à
21h
07
luk a écrit :
Effectivement, quand je lis : on a pas de marché viable pour un supersonique qu’on saurait faire techniquement maintenant, mais l’avenir est à l’hypersonique qu’on ne sait pas faire du tout, la jauge de mon bullshitmètre s’affole.
Les américains, on les connait depuis le temps.
En attendant, avec l’Angleterre, la France est le seul pays à avoir fait un vrai supersonique commercial, un truc qui a vraiment existé et volé tous les jours, pas juste sur le papier.
Le
12/10/2016 à
20h
59
barlav a écrit :
Heuuuuu, comment dire, ces dernières années n’ont pas le vent en poupe de ton dialogue ta simplification.
Regardons historiquement les TDP d’un CPU et d’un GPU, on est en retrait sur le TDP; à part le dernier quiqu’alaplusgrosse, tous les usages normaux sont bcp plus économes et plus fins en usage.
Bref, j’ai plus l’impression qu’on parle d’un aigri qui ne voit pas l’intérêt de changer une puissance X moyennant 300W brulés à Y moyennant 30W brulés parce que X est trop proche de Y.
Après, selon l’usage, X conviendra très bien à mes parents qui n’allument le PC que 10h/semaine; tandis que Y n’est pas négociable pour moi qui tourne h24 avec le PC dans la pièce de vie (donc fanless please).
Mais nier le gap, c’est un peu continuer à vivre avec un athlonen 2016.
Personne ne nie les progrès de gain en consommation des CPU et GPU ces dernières années ni son intéret… bien au contraire.
Ce sont justement tous les progrès effectués depuis le pentium 4 sur la consommation qui ont permis de continuer à augmenter le nombre de transistors et de dépasser le mur devant lequel intel butait avec son P4 Prescott.
Ce que vous ne réalisez pas, c’est que le nombre de techniques pour faire cela n’est pas infini. Une fois épuisées…. et logiquement avec le temps, ça sera de plus en plus difficile d’en trouver d’autres.
Je ne peut pas prédire exactement à quel moment l’industrie se prendra le mur car une découverte peut toujours intervenir et repousser l’échéance de quelques années.
Mais je pense que si vous êtes jeunes, vous vous rappellerez dans quelques années de mes propos qui n’ont d’ailleurs rien d’original. Dans l’industrie informatique, tout le monde sait que la fantastique courbe de progrès qu’a connu l’informatique s’arrêtera un jour. Et les signes d’essoufflement pourraient bien montrer qu’on est peut être proche de cette échéance.
Le
11/10/2016 à
20h
42
lincruste_2_la vengeance a écrit :
Le pire c’est qu’il a l’air de croire à sa théorie, c’est même pas pour s’amuser à faire rager les geeks (ce qui aurait été parfaitement honorable).
Un paumé.
Merci pour tes compliments, jeune padawan, ça me va droit au cœur " />
Le
11/10/2016 à
19h
20
Faith a écrit :
Cette affirmation est en fait une tautologie.
Les “grandes découvertes capitales” ne sont identifiées que plusieurs décennies après le début de leur étude, et accessibles au public qu’encore plus tard. Ce qui fait qu’on ne trouve jamais de “grande découverte capitale” contemporaine.
C’est l’affirmation préférée de gens aimant se complaire dans l’auto-flagellation.
C’était peut être vrai au XIX siècle. Mais il faut prendre conscience que de nos jours, l’information circule bien plus vite.
De nos jours, il n’est pas rare que des recherches soient bien médiatisées avant même d’avoir abouties.
Il n’y a pas d’auto flagellation dans le fait de comprendre qu’il y a épuisement progressif.
Les premiers chercheurs ont fait des découvertes capitales avec des pommes et un arbre et plus tard, dans le fond de leur petit labo.
Aujourd’hui, il faut une armée de chercheurs, des machines gigantesques au cout astronomique pour espérer découvrir encore quelque chose de nouveau.
Quand le plus facile à découvrir a déjà été découvert, il reste ce qui est difficile… et de plus en plus difficile. C’est assez logique…
Je comprends que ce n’est pas une idée très séduisante, ni pour le moral, ni pour l’ego de l’homme. Mais le réalisme est parfois une bien meilleure philosophie que de prendre la mauvaise habitude qui consiste à se faire vendre du rêve…
Le
11/10/2016 à
19h
04
lincruste_2_la vengeance a écrit :
Ce n’est pas une spéculation:
l’informatique est une science logique, elle existait avant les ordinateurs. Elle s’étudie très bien sans écran, sur du papier. Un cours d’algo ou la présentation d’une machine unaire, c’est de l’informatique.
Même s’il est vrai que la base mathématique et logique existait avant l’avènement des ordinateurs, prétendre que l’informatique s’étudierait bien sans un ordinateur est objectivement faux.
A une époque lointaine quand les ordinateurs étaient coûteux et rares, cela s’est pratiqué. On sait ce que cela a donné, on en est revenu.
Parce que tout le savoir faire de ce domaine ne se limite pas aux quelques principes simples qui existaient avant l’avènement des ordinateurs physiques.
La loi de Moore, c’est du charabia commercial démenti depuis des décennies, et ton exemple comme preuve du ralentissement EST une ânerie.
La loi de Moore a beau être un concept empirique, il n’empêche que le fait que la puissance des ordinateurs plafonne est une réalité plus que concrète.
-La fréquence n’augmente plus : On se heurte désormais aux lois de la physique.
-La finesse de gravure se rapproche inéluctablement de la taille minimale que l’on ne pourra pas dépasser. (Tous les fondeurs confirment que les couts liés à la finesse de gravure sont en train d’exploser.)
-La densité en transistors se heurte au mur de la consommation et de la chaleur.
-L’architecture des processeurs fait déjà appel a de nombreuses techniques extrêmement sophistiquées pour tirer des l’IPC.
Même si je ne doute pas que l’on trouvera encore quelques astuces pour gagner un peu de temps et beaucoup de marketing pour masquer le problème, la fin de l’age d’or de l’informatique est bien une réalité concrète.
Pour le reste, quand je dis que ta prose est un tissu d’ânerie (ce que je maintiens et confirme), je juge ton texte, pas toi, c’est pourquoi ce n’est pas un jugement ni une insulte.
Dire que les idées de quelqu’un sont un tissu d’ânerie, c’est juste le summum du mépris. C’est également poser la certitude du fait que son propre jugement constituerait l’absolu et que ceux qui ne le partagent pas manqueraient d’intelligence.
Ce n’est pas par respect pour toi, c’est seulement parce que ta personne ne m’intéresse pas, je ne parle que de ton texte.
On peut parler d’un texte en employant des termes qui restent courtois. “Je ne partage pas ton point de vue”. “Je ne suis pas d’accord avec ton argument”.
Si l’on aime la science, on ne devrait jamais oublier que les plus grands noms de la science que l’on vénère aujourd’hui comme des dieux ont eu parfois des heures sombres parce que leurs idées révolutionnaires choquaient les idées reçues de leur temps.
Le
11/10/2016 à
18h
01
OlivierJ a écrit :
Ca ferait un peu rire les chercheurs ta première phrase.
C’est original comme point de vue, mais à mon avis c’est juste le tien.
Tout à fait.
Par définition, tout point de vue sur un forum est celui de la personne qui l’exprime.
Je n’ai jamais prétendu exprimer autre chose que mon propre point de vue.
On explore toujours de nouvelles voies, on ne manque pas d’idées,
C’est un peu de la méthode Coué. Même s’il y a quelques nouvelles voies, ce n’est rien à côté du boulevard qu’avaient les chercheurs du temps des pionniers.
rien que la généralisation de l’informatique permet des choses étonnantes en utilisant les données collectées, que ce soit pour la santé ou pour d’autres domaines.
Comme je l’ai dit, il y a encore à faire dans l’application de l’informatique. Mais c’est de l’application, pas de la découverte.
Même si l’on découvre encore des choses en informatique, c’est bien moins que ce que la plupart des gens pensent.
Vous seriez surpris de constater a quel point ce que certains prennent pour de la nouveauté ont été inventées il y a fort longtemps.
C’est un domaine ou il y a beaucoup de marketing et de mauvaise foi. On n’hésite pas à présenter comme une invention et même à breveter des choses qui ont déjà été inventées et utilisées par d’autres par le passé.
Il ne faut pas confondre la science-fiction et la science tout court. En plus, le problème des voitures volantes n’est pas technique mais à mon avis pratique et légal (ça revient pour l’instant à piloter un avion).
Paradoxalement, cet aspect est compliqué à résoudre, mais pas insoluble. Le vrai problème, c’est plutôt le coût de production et le coût de l’énergie.
Ce qui a foutu en l’air toutes les prédictions, c’est qu’on pensait que la science serait à même de découvrir des sources d’énergie très puissante et compactes beaucoup plus facilement. Il n’en a rien été.
Quant à la téléportation, on sait qu’on ne peut pas téléporter la matière, mais on commence à savoir “téléporter” un état atomique. Heureusement qu’on est encore plein à rêver de techniques “du futur”.
Objectivement, l’humanité découvrira encore des choses. Mais vraisemblablement plus au rythme des deux siècles derniers.
Je vois 2 progrès à venir très important dans le domaine de la santé : le coeur artificiel (le rein ou l’oeil aussi),
Aussi merveilleux que cela puisse être, c’est en grande partie une extrapolation du savoir fondamental déjà connu. Et la encore, de l’application de l’informatique, que ce soit dans l’utilisation ou dans sa puissance de conception.
Bien sûr, on me dira que la création d’un coeur artificiel suppose des recherches et des découvertes sur la circulation sanguine. Que la création d’un oeil artificiel suppose de comprendre la communication entre la rétine et le cerveau, particulièrement le codage dans le nerf optique. Mais rien qui ne touche à découvrir de grandes lois de l’univers, de la matière, de l’espace ou du temps.
la réparation de la moelle épinière (pour les paralysés).
La dessus, je serais plus circonspect. Cela fait des décennies qu’on voit des effets d’annonces.
Le problème, c’est quand ceux qui ont besoin de financement font de la com et que cette com est reprise par des journaux qui vulgarisent sans rien comprendre.
Cela dit, je pense qu’on y arrivera un jour. La question, c’est de savoir quand.
1ère phrase : il ne s’agit pas de productivité mais de niveau de vie, qui va aussi avec l’hygiène et la médecine, l’eau potable et manger à sa faim sans survivre.
Le premier problème, c’est qu’il n’y a rien de plus difficile que de mesurer l’accès concret à tout cela dans la pratique.
Le second problème, c’est que cela ne définit toujours pas ce qui fait l’essentiel du bonheur humain.
Il y a des gens qui vivent parfaitement heureux au fin fond d’un pays défavorisé et des personnes qui se suicident dans nos pays “développés” alors qu’elles ont théoriquement un bon niveau de vie, mais objectivement une jolie vie de merde dans la pratique.
2eme : ah bon. On peut globaliser tous les pays pauvres concernant toutes l’agriculture… Ben non, suffit de voir l’agriculture non mécanisée en Afrique ou en Asie.
Rien à voir avec la mécanisation. C’est une simple question de structure juridique et comptable.
“LOL”. N’importe quoi. Si tu penses que les statistiques n’ont aucune validité, arrête tout de suite de croire à la validité de la science et des traitements médicaux, qui se basent en bonne partie dessus.
La validité de la science n’est pas du tout en cause.
Tout scientifique digne de ce nom sait à quel point il faut être rigoureux pour éliminer les biais de mesure et d’interprétation à tous les niveaux pour ne pas aboutir à une conclusion erronée. La moindre erreur et la conclusion peut se retrouver complètement fausse.
Les scientifiques ne se contentent pas de croire les études de leurs pairs et les chiffres. Ils analysent avec discernement et esprit critique les protocoles et surtout les raisonnements qui ont mené aux conclusions.
Ils ont toujours à l’esprit, que même avec des chiffres qui sont justes, on peut se tromper complètement dans leur interprétation.
Pour les statistiques, c’est exactement la même chose. Il faut avoir beaucoup de discernement, d’esprit critique et de connaissances du sujet pour pouvoir en tirer des conclusions pertinentes.
Le
11/10/2016 à
16h
50
OlivierJ a écrit :
La recherche fondamentale est toujours bien active, la recherche appliquée aussi, on conçoit des matériaux plus performants (et parfois pas plus chers à produire, en imitant le vivant qui dans certains domaines reste devant, cf le fil d’araignée).
“La vraie réalité” (beau pléonasme), c’est que tu énonces tes préjugés, mais sans rien de concret à l’appui.
Que la recherche soit active et vivante, je n’ai jamais dit le contraire.
Le sens de ce que j’ai dit, c’est qu’on ne fait plus autant de grandes découvertes capitales que pendant les deux siècles précédent.
Dans tous les domaines, il y a eu le temps des pionniers ou des individus faisaient des découvertes capitales dans leur petit labo, puis viens le temps ou cela devient beaucoup plus dur, même avec de gros moyens.
Cela n’empêche pas qu’on puisse trouver de nombreuses choses utiles, qu’on puisse améliorer ce qu’on produit. Mais les grandes découvertes fondamentales se raréfient, demandent des moyens toujours plus importants.
Cela ne veut pas dire pour autant que l’humanité ne fera plus de grandes découvertes, mais qu’il n’y en aura plus autant que par le passé.
Le
11/10/2016 à
16h
42
lincruste_2_la vengeance a écrit :
Une insulte et un proverbe, belle argumentation scientifique.
Tu n’as aucune idée de ce qu’est l’informatique.
Cette spéculation est complètement fausse.
Et c’est un comble que tu te sente insulté par le mot “troll” alors que tu as qualifié mes propos de “tissu d’anneries”. Je te recommande de relire ton post agressif, méprisant et sans argumentation.
On a parfaitement le droit de ne pas partager l’avis de quelqu’un, mais le respect de l’interlocuteur doit rester de rigueur.
Pour ma part, je considère que tous les points de vue se respectent quand bien même je ne les partage pas pour la simple raison qu’il n’existera jamais de vérité absolue.
Le
10/10/2016 à
23h
19
lincruste_2_la vengeance a écrit :
C’est un tissu d’âneries. Je ne fais pas la liste complète parce que la vie est trop courte, mais c’est d’autant plus ridicule que le ton est péremptoire.
De la recherche fondamentale, il y en a partout dans le monde, et les labos privés s’y sont mis dès la moitié du siècle dernier.
Tu confonds totalement informatique et électronique (l’informatique, ça s’étudie très bien avec un papier et un crayon).
On dirait un de ces types de la fin du 19ième siècle qui annonçait que la science était finie à deux ou trois constantes près. Niels Bohr en rirait encore s’il le pouvait.
Oh le beau troll.
Il y a un proverbe qui dit que les arbres ne grimpent jamais jusqu’au ciel.
Le
10/10/2016 à
20h
51
linkin623 a écrit :
" /> Les limites de vitesses viennent surtout du matériel, et particulièrement de la voie.
Au delà de 300 km/h, le pantographe peut “claquer” dans la vague de la caténaire, il faut alors tendre la caténaire à des niveau difficilement tenable avec les écarts de température.
Sans compter sur l’usure des rails et des bandes de roulement dans les courbes. Ainsi que des roulements à aiguilles dans les boîtiers sur les bogies.
La consommation électrique augmente certes très vite, mais les principales limites sont matérielles et économiques, non physique et énergétique.
La question qui se pose aujourd’hui, c’est pourquoi vouloir voyager plus vite ?
Aujourd’hui, internet fait disparaître les distances. D’un clic, tu communiques avec l’autre bout du monde.
Déplacer des millions de gens tous les matins, c’est une vision du passé…
L’homme qui travaille dans une usine, c’est une vision du passé.
L’homme qui fait des kilomètres pour travailler dans un bureau, c’est une vision du passé.
Le
10/10/2016 à
20h
38
OlivierJ a écrit :
Je pense que tu es du même avis que moi, mais voici une liste rapide :
GPS, mobiles, tablettes, voitures avec de la sécurité active (ESP et autre freinage d’urgence ainsi que franchissement de ligne), médicaments et traitements nouveaux, greffes complexes, imagerie médicale en progression (encore maintenant), compréhension accrue du cerveau, systèmes plus économiques ou écologiques pour l’agriculture, traitement des eaux, etc.
Malheureusement, tout cela ne découle pas de grandes découvertes, mais de perfectionnement dans l’utilisation de principes connus depuis belle lurette et qui ne sont pas encore exploités à fond.
La vraie réalité, c’est que les vraies découvertes fondamentales sont de plus en plus rares. Et qu’a plus ou moins long terme, c’est ce qui nourrit l’évolution. Dit autrement, nous vivons sur des acquis…
Pire, la plupart des évolutions que tu cites sont en réalité la conséquence d’une seule science : l’application de l’informatique aux autres domaines. L’informatique, l’un des rare domaine qui a encore enregistré de beaux progrès à une époque récente… mais qui commence hélas à s’essouffler sérieusement. Bref, quand on aura fini de croiser l’informatique avec tous les autres domaines existants, ça sera vraiment la misère.
GPS = croisement de la technologie radar et de l’informatique.
ESP/ABS/Freinage d’urgence = Boucle de contrôle capteur-servocommande avec un calculateur entre les deux. Utilisé depuis les années 60 (calculateurs mission Apllo)
Tablette = Ordinateur sous une autre présentation.
GSM = Croisement de l’informatique avec les techologogie des ondes radio (CB, talkie walkie, etc…).
Imagerie médicale = Croisement de l’informatique avec la radiographie (Scanner) et les ondes radio (IRM).
Malgré ce qu’a permis l’informatique, les ficelles de cette science commencent à s’essouffler : c’est la fin de la loi de moore.
Dans de nombreux domaines, on observe que le marketing doit faire preuve de créativité pour compenser l’absence de nouveauté réelle.
L’exemple type, c’est la tablette qui est juste un ordinateur sous une autre présentation.
Le
10/10/2016 à
19h
45
wagaf a écrit :
Pour Musk, Mars n’est effectivement pas une manière de gagner de l’argent mais une finalité en soit. Le but affirmé est de faire perdurer l’espèce humaine et la vie au delà de notre planète (pas juste d’y aller pour y aller)….
Bah, au fond, ça va changer quoi ?
Le vrai enjeu, mais aussi la vraie difficulté, c’est de quitter le système solaire. Et il faudrait une énorme découverte pour rendre cela possible.
Aller sur la Lune ou Mars, ça ne change pas grand chose pour l’espèce humaine. Particulièrement s’il continue à faire preuve d’aussi peu de sagesse.
Le
10/10/2016 à
19h
31
OlivierJ a écrit :
Ces 2 affirmations sont fausses à mon avis. La science et la technique n’ont cessé de voir leur progression s’accélérer. Quant au coût, ça doit dépendre des domaines.
Je ne partage pas ton avis. Il suffit de constater : Nombreux sont les domaines ou l’on ne découvre plus grand chose.
Après une période de frénésie ou l’on a découvert énormément de choses, la plupart des champs d’études voient les grandes découvertes se raréfier suivant la loi des rendements décroissants. L’augmentation du coût est une simple conséquence de cette loi.
Il n’y a pas de secret, le cerveau humain est fini. Plus le temps passe, plus il faut étudier longtemps pour simplement comprendre l’état de l’art existant. Au fur et à mesure que nous accumulons des connaissances, le temps alloué pour en découvrir de nouvelles se réduit. Ce qui augmente bien en conséquence le coût de l’heure de recherche.
Hier l’humanité rêvait de voitures volantes et de téléportation… mais il se pourrait bien, hélas, que le futur soit de revenir au fait d’utiliser ses pieds ou tout autre moyen de déplacement léger, voir d’évite de se déplacer…
Le niveau de vie n’a quasiment jamais cessé d’augmenter depuis la révolution industrielle ; même dans les pays pauvres sauf que d’ici on s’en rend moins compte, mais les données sont disponibles pour l’après-guerre par exemple :https://www.ted.com/talks/hans_rosling_shows_the_best_stats_you_ve_ever_seen (excellente conférence TED).
L’éternelle illusion de ceux qui confondent productivité avec bonheur humain et chiffres économiques avec niveau de vie.
Quand aux pays pauvres, on a remplacé l’économie agraire traditionnelle par de l’exploitation industrielle.
La différence de niveau de vie est une simple illusion comptable : l’économie traditionnelle et localisée est informelle. Elle ne produit pas de chiffres. La grande industrie en produit.
Typiquement, celui qui vit à l’usine gagne un salaire qui n’existe pas dans le mode de vie traditionnel. On oublie juste de préciser que ces gens n’avaient pas besoin d’argent pour être heureux.
D’ailleurs, on ne mesure toujours pas le bonheur humain, on se contente de poser péremptoirement le fait que l’homme moderne serait plus heureux parce qu’il a un téléviseur et un ipad.
Je remarque que nos discutions tournent finalement autour du même problème, la différence entre la théorie et pratique.
La plupart des gens devraient faire un bon stage de survie et des voyages dans des pays pauvres. Ils comprendraient que beaucoup de conceptions qu’ils ont sur le bonheur et le niveau de vie sont complètement erronés.
Quand aux chiffres, n’importe quel statisticien leur fera dire ce qu’il veut. Toutes formes de conclusions erronées sont possible pour qui ignore les réalités pratiques qui se cachent derrière.
Après, pour aller plus loin, il ne faut pas sous-estimer le génie technique et scientifique de notre espèce…
Oui, mais c’était l’age d’or de la science. Une époque ou la science et la technologie ont fait un bond sans précédent.
Depuis, il s’avère que la science plafonne et qu’on atteint le stade ou des progrès toujours plus tenus sont toujours plus coûteux.
Pire, tous les beaux rêves technologiques de l’homme se heurtent à un monde qui connait des difficultés économiques sans précédent.
Et s’il est un rêve que l’humanité devrait viser plutôt que de construire des joujoux pour transporter des élites, c’est d’améliorer la vie quotidienne du peuple de base.
La finesse c’est que du marketing, personnellement je me sens pas moins à l’aise avec un 3310 dans la poche qu’avec un S7, par contre un G4 ou un note 7, j’ai pas eu le 2ème mais pour le premier y a certains pantalons où tu étais obligé d’enlever le téléphone de la poche pour être à l’aise.
A titre personnel, tu me donnes un S7 avec 50% de batterie en plus mais 50% plus épais, ça me dérangerait pas plus que ça. Après pour les formes wahou, je mets une coque sur tous mes téléphones (otterbox principalement) car ils sont trop fragiles.
Je suis totalement d’accord avec toi. Personnellement, je fustige tout ces smartphones devenus trop fins pour bien tenir en main, pour être résistants et qui n’ont pas d’autonomie.
Mais voila, tu as bien définit le problème : “c’est du marketing”.
Le problème, c’est que le marketing, c’est ce justement qui fait vendre. Parce que le troupeau de mouton d’aujourd’hui n’achète plus rien s’il ne reçoit pas sa grosse dose de marketing dégoulinant.
Je pense qu’on ne solutionnera pas le problème tant qu’on n’introduira pas à l’école une éducation à la consommation pour déjouer le marketing.
Le
11/10/2016 à
00h
43
exover a écrit :
Ben j’ai un portable et il me sert en fixe.
Tu trouve cela idiot.
ben si tu me trouve la même chose qu’un portable qui tient sur une table basse, qui n’a aucun fil, que je peux déplacer dans la maison aisément et ranger ou je veux si besoin….
De nos jours, range t’on vraiment si souvent un objet aussi indispensable qu’un ordinateur ? Pourquoi perdre ce temps ?
Est ce vraiment une si bonne solution que de prendre l’habitude d’utiliser son ordinateur n’importe ou plutôt que de d’avoir un véritable espace avec un vrai siège et une vraie table ? Il faut savoir qu’avec le temps, les mauvaises positions gardées pendant des heures, répété années après année, ça finit par se payer.
ben ouais un portable c’est plus pratique qu’un fixe.
Oui, cela peut parfois l’être.
Mais pas toujours, il y a aussi des inconvénients indéniable à avoir un ordinateur portable.
Un écran qui est beaucoup plus petit. Un clavier qui n’a pas l’ergonomie ni le toucher d’un vrai clavier fixe. Bref, une ergonomie très inférieure.
Techniquement, le portable ne rivalise pas en puissance avec celle d’un vrai fixe (contraintes de dissipation, de taille, etc). Silence de fonctionnement qui n’a rien à voir.
La “réparabilité” d’un portable n’a rien à voir avec celle d’un poste fixe.
D’un autre côté, oui, le portable a aussi des avantages… dont on ne profite que si on l’utilise VRAIMENT dans un usage mobile.
L’erreur, c’est de penser qu’il existerait un type d’objet au monde qui n’aurait pas les avantages de ses inconvénients.
Le
10/10/2016 à
18h
22
M_Michu a écrit :
Tout à fait….
surtout pour la course à la finesse qui est clairement devenu aujourd’hui une branlette entre Apple et Samsung sans que le client ait son mot à dire.
Je pense qu’aujourd’hui les gens réclament surtout une plus grande autonomie, quitte donc à avoir un smartphone plus épais. Mais bon on dirait que les constructeurs font la sourde oreille avec ça
Je crois que vous n’avez pas idée de la bêtise des masses et à quel point les achats de la plupart des gens sont complètement irrationnels.
Les spécialistes du marketing ne font pas les choses par hasard. C’est peut être idiot d’un point de vue cartésien, mais en attendant c’est ça qui se vends et pas autre chose.
Vous seriez surpris de voir comment des consommateurs peuvent préférer l’image a toute autre considération.
Comme dit la blague, il ne faut pas prendre les gens pour des cons, mais il ne faut jamais oublier qu’ils le sont…
Le
10/10/2016 à
18h
14
jpaul a écrit :
Faux. Il faut arrêter avec ça. Je n’ai jamais entendu qui que ce soit dire qu’il voulait des formes wahou, un smartphone le plus fin possible etc. Ce sont les départements design et marketing de ces propres entreprises qui s’imposent de telles contraintes, pour faire toujours mieux que le concurrent, et parce que les médis n’ont rien de mieux à faire que de comparer ces critères complètements futiles. On se retrouve dans une situation incroyable où l’on a un téléphone aussi grand qu’une planche à découper dans la poche mais alors, hein, ultra fin.
Je n’ai rien contre la finesse des smartphones, mais à part pour les journalistes, et depuis que ça se joue au 10eme de mm entre deux modèles concurrents, cela fait longtemps qu’il ne s’agit plus d’un critère d’achat, mais seulement d’un “plus appréciable”.
Comme tu le dit, il arrive un moment ou ça devient complètement idiot aussi bien sur le plan technique que de l’usage.
Mais tout bon marketeux te dira qu’en attendant, si tu essaye de t’écarter de “la mode”, tu ne vendra rien du tout. Et même si les consommateurs ne demandent pas explicitement des formes “waouh”, c’est bien ce qu’ils achètent.
La raison, c’est qu’il y a une bonne part d’irraisonné et de futile dans les motivations d’achat des gens.
Les cimetières de l’industrie sont pavés des tombes d’entreprises qui ont voulu faire de bons produits au lieu de faire des produits à la mode. Il ne faut pas s’écarter de la mode du marché.
Quelque part, c’est à la source qu’il faudrait prendre le problème.
Former les consommateurs à acheter dès l’école : analyser leurs motivations d’achat inconscientes, décrypter le marketing, comprendre leurs vrais besoins. S’affranchir des modes. Difficile parce qu’une partie du problème touche à l’image que les gens veulent se donner au travers des objets. Bon courage pour leur faire dépasser ce stade.
L’aspect technique est une autre partie du problème. La plupart des gens n’y comprennent rien. Ils succombent plus volontiers devant un appareil qui prétends faire plus que devant un autre qui ferait moins, mais mieux. Ils n’ont aucune conscience que chaque exigence suppose des contraintes techniques qui finissent par s’accumuler et créer des inconvénients, les lois de la physique étant immuables.
Il suffit de voir tout ceux qui prennent un ordinateur portable pour s’en servir comme d’un poste fixe.
Le
10/10/2016 à
16h
24
thomgamer a écrit :
Ils ont récupérés une petite partie de la première vague pour analyse, d’ailleurs vu la rapidité de livraison des nouveaux modèles, ils ont juste ciblé une marque de batterie et n’ont pas remis en cause la conception.
C’est con, ça leur aurait fait une moins mauvaise pub si ils avaient bien stoppé la vente et analyser le problème sérieusement.
Là c’était plus du “Euh, c’est certainement un lot de batterie defectueux, on les change, on rajoute un petit carré noir pour dire que c’est les nouvelles batteries, et on relance la chaîne !” au lieu de temporiser et bien regarder la cause du problème, car les batteries sont peut être pas en cause, mais plutôt les contraintes auquel elles sont soumis. Il y avait un INpactien qui avait posté l’image de la batterie, quand tu vois la forme imposé au dos de la batterie, tu te demandes limites si la batterie épouse cette forme durant sa conception ou si c’est lors de la pose où on la contraint à cette forme.
La théorie et la pratique sont deux choses différentes.
Il n’est jamais simple d’analyser un problème qui se produit très épisodiquement parce qu’il est quasiment impossible de le reproduire.
Dans ce genre de cas, il est logique que les ingénieurs en soient réduits à analyser des indices tenus et à poser des conjectures.
Il est compréhensible qu’ils aient commencé par remplacer la batterie parce que c’était logiquement ce qu’il y avait de mieux à faire.
Pour le reste, nous sommes dans un monde ou les clients veulent l’impossible. Des smartphones fins, des batteries qui se chargent rapidement, des formes “Waouh”. Les ingénieurs se retrouvent avec des cahiers des charges qui ne sont pas faciles.
En attendant, pour ma part, j’évite de charger la nuit n’importe quel appareil comportant une batterie. Et ça, c’est juste du bon sens.
Houla, je ne sais pas dans quelles explications et enfonçages de portes ouvertes tu te lances, je ne répondais qu’à ton: ”ce qu’il faut considérer, c’est la quantité d’argent que le studio à gagné avec ce jeu qui a été quand même un beau succès commercial. Même si les employés n’étaient pas actionnaires, à partir du moment ou ils se sont surinvestis et qu’ils ont multiplié les heures supplémentaires non payées, c’est normal qu’ils veuillent leur part du gâteau. “
Bien sûr que plus une entreprise a de moyens, plus elle peut payer (ce n’est pas pour cela qu’elle le fera), par contre, les salaires en fonctions des résultats d’une boite et de l’investissement personnel, ça n’existe pas, pas dans ce système solaire en tout cas (à part dans le cas de coopératives où les salariés sont aussi “actionnaires”).
" /> Alors celle-là elle est bien bonne quand-même !
Toi, tu n’a connu que des grandes boites tenues par des gestionnaires.
Un véritable entrepreneur te dira qu’on ne battit pas un succès à long terme sans partager un minimum avec l’équipe qui te fait gagner. Et cela que ces personnes soient actionnaires ou non.
Quand le nerf de la guerre c’est de bâtir une équipe de talents, une équipe qui gagne, que cela prends des années et coûte une fortune, tu ne prends pas le risque de les voir se tirer chez le concurrent. Tu partage raisonnablement parce que c’est ton intérêt.
Enfin, dans les entreprises de type startup, il est courant d’embaucher des employés avec un salaire très bas durant la phase de création du produit, mais avec la promesse de le relever par la suite quand le produit sortira.
Bien sûr, il y a aussi à l’opposé des grandes entreprises qui jouent sur le turn over d’employés débutants, peu couteux et… remplaçables. Dans ce cadre, il est évident que l’investissement personnel n’est pas souvent remercié à sa juste mesure, c’est le cas de le dire.
Le
06/10/2016 à
14h
20
nyarlatothep a écrit :
Oui c’est normal au pays de Candy, mais dans la vraie vie tu peux continuer à gagner un SMIC même en travaillant dans la boite la plus riche du monde. Mon premier job était dans une des plus grandes banques de France, et je ne te raconte pas le nombre de mes collègues qui ne gagnaient même pas le smic en travaillant à plein temps + le samedi (j’ai jamais compris comment ça pouvait être légal).
Le salaire n’est jamais indexé sur les résultats de la boite (au pire, une petite prime annuelle si tu as des participations), et si la boite est cotée en bourse ou a de gros actionnaires, il faut être très benoit pour imaginer que les actionnaires avec un pouvoir de décision vont accepter de céder leur part à des péons et des petites mains.
Un salaire dépends principalement de deux facteurs. (1) Ce qu’une entreprise peut payer. (2) Ce que le salarié est prêt à accepter.
Paradoxalement, le (2) rétroagit sur le (1).
Par exemple, avec la “mode” des stages longues durée, il y a des entreprises qui ne vivent quasiment qu’avec des stagiaires. Résultat, ça fait baisser les tarifs du marché. Et les entreprises qui payent normalement leurs salariés deviennent non compétitives et sont vouées à la faillite.
Les jeunes sont aujourd’hui au coeur du problème. Pressés par le marché autant que par leurs parents, ils acceptent n’importe quoi dans l’espoir de se faire une place.
Certains employeurs ont bien compris cela et les exploitent quelques années pour les jeter avant qu’ils n’aient fondé une famille et fait des enfants. Une situation qui leur ferait comprendre qu’ils sont très loin d’être assez rémunérés pour louer le logement adéquat et qu’ils travaillent beaucoup trop pour s’occuper de leur famille.
4322 commentaires
HP supprimera jusqu’à 4 000 emplois supplémentaires sur trois ans
17/10/2016
Le 17/10/2016 à 18h 22
Depuis plusieurs années, il ne se passe pas une journée sans qu’une entreprise annonce des licenciements.
De l’autre côté, une classe politique qui fait la surenchère au durcissement du traitement des chômeurs.
Cherchez l’erreur…
Blockly : la programmation graphique de Google débarque sur iOS
17/10/2016
Le 17/10/2016 à 18h 18
L’inconvénient de ces systèmes de blocs, c’est qu’ils éloignent de la notion de syntaxe d’un langage et de l’apprentissage du clavier.
Or, ce sont des notions essentielles en informatique. Sans elles, on ne fait rien de sérieux.
Vouloir se simplifier la vie, c’est louable, mais il faut prendre garde aux raccourcis qui font l’impasse sur des notions primordiales.
Bientôt une activation systématique des caméras-piétons lors des contrôles d’identité
17/10/2016
Le 17/10/2016 à 17h 47
Pour Linus Torvalds, le x86 a encore de beaux jours devant lui face à ARM
12/10/2016
Le 16/10/2016 à 22h 52
Le 14/10/2016 à 23h 04
Le 14/10/2016 à 03h 16
Le 14/10/2016 à 03h 08
Le 14/10/2016 à 02h 27
Le 12/10/2016 à 22h 20
Le 12/10/2016 à 21h 51
Le 12/10/2016 à 21h 08
Le 12/10/2016 à 20h 57
Le 12/10/2016 à 20h 44
Le 12/10/2016 à 15h 00
Le 12/10/2016 à 14h 53
Le 12/10/2016 à 14h 40
Le 12/10/2016 à 14h 24
Le 12/10/2016 à 14h 14
Le 12/10/2016 à 14h 08
Le 12/10/2016 à 13h 54
iFixit dépouille le casque PlayStation VR, qui obtient 8 sur 10
14/10/2016
Le 16/10/2016 à 21h 05
Revue de presse : Mafia III, KO technique à New Bordeaux
11/10/2016
Le 13/10/2016 à 23h 55
Le 12/10/2016 à 18h 08
Le 11/10/2016 à 20h 15
Le 11/10/2016 à 20h 13
Boeing : la conquête humaine de Mars, le tourisme spatial, les avions hypersoniques
10/10/2016
Le 13/10/2016 à 21h 31
Le 13/10/2016 à 00h 04
Le 12/10/2016 à 21h 07
Le 12/10/2016 à 20h 59
Le 11/10/2016 à 20h 42
Le 11/10/2016 à 19h 20
Le 11/10/2016 à 19h 04
Le 11/10/2016 à 18h 01
Le 11/10/2016 à 16h 50
Le 11/10/2016 à 16h 42
Le 10/10/2016 à 23h 19
Le 10/10/2016 à 20h 51
Le 10/10/2016 à 20h 38
Le 10/10/2016 à 19h 45
Le 10/10/2016 à 19h 31
Le 10/10/2016 à 17h 05
D’autres « nouveaux » Galaxy Note7 auraient pris feu, des opérateurs arrêtent de le vendre
10/10/2016
Le 11/10/2016 à 19h 37
Le 11/10/2016 à 00h 43
Le 10/10/2016 à 18h 22
Le 10/10/2016 à 18h 14
Le 10/10/2016 à 16h 24
598ème édition des LIDD : Liens Idiots Du Dimanche
08/10/2016
Le 09/10/2016 à 16h 34
iOS 10.1 (re)part en guerre contre les applications 32 bits
07/10/2016
Le 07/10/2016 à 16h 39
La raison d’être du “64 bits” n’a jamais été de rendre les programmes plus rapide mais de dépasser la limitation à 4Go de l’espace d’adressage.
Il est évident que le fait de doubler la taille des pointeurs et de certaines données ne fait pas gagner en performances.
Kerbal Space Program perd neuf cadres de son équipe de développement
05/10/2016
Le 06/10/2016 à 22h 38
Le 06/10/2016 à 14h 20