Pas qui prédisaient, qui savaient. Depuis la fin du 19e siècle, et donc tout le 20e.
Oui, on n’a rien fait entre autres pour une raison que j’ai déjà évoquée, les qualités de l’amiante dans son utilisation, qui n’avait pas de remplaçant, justement pour sauver des vies en cas d’incendies (et pas seulement).
Dans les années 70-80 ça a été un choix à la fois politique et industriel, il doit y avoir des bouquins sur le sujet.
On n’est pas dans la situation où les scientifiques ne savaient pas.
Pourtant, dans bon nombre d’applications, il y avait depuis toujours des remplaçants possibles.
C’est par exemple le cas dans la couverture ou les produits amiantés n’étaient qu’un choix parmi d’autres. C’est également le cas en isolation ou dans les chauffages ou d’autres produits existaient de manière assez courante.
Tu dit que c’est un choix politique, mais il est interessant de se demander pourquoii les politiques ont fait ce choix. Étaient t’ils réellement bien informés ? Pourquoi tout le monde a sous estimé le danger ?
En réalité, ce qui importe n’est même pas la réalité scientifique, mais plutôt ce que les gens en perçoivent. Entre ce que CERTAINS scientifiques pensaient et ce que la majorité des gens pouvaient percevoir, il y avait un décalage.
La réalité, c’est que la plupart des gens, ne comprennent pas grand chose aux limites des études scientifiques et se disent simplement que si leur voisin l’utilise et que c’est vendu dans tous les magasins, c’est que c’est forcément sans danger.
Mais tu mélanges des choses sans rapport. Moi je parle de l’état de la science, pas des erreurs humaines faites ensuite.
Le Mediator : prescrit pour un usage non prévu, et probablement des conflits d’intérêts à certains niveaux. Ça n’est pas une erreur scientifique.
Bisphenol A : heu, quel scandale ? C’est vraiment si nocif ce truc (dernier truc à la mode, où on veut tout interdire dès qu’on a un pouillème de risque) ? Où sont les centaines de morts ?
Pesticides : on a interdit le DDT dans les années 60, du fait de ses dangers, en particulier sur les oiseaux. Pour d’autres pesticides, pour les agriculteurs, il y a sans doute un manque d’information, car ce sont eux les plus exposés, lors de l’épandage. Mais là aussi, parler de scandale, ça veut dire quoi, concrètement ?
Le sang contaminé : rien à voir avec l’état de la science, c’est un choix qui a été fait de ne pas le chauffer alors qu’on savait que ça marchait très bien, c’est un choix économique à l’époque.
C’est une vision assez lénifiante.
Ces exemples montrent surtout qu’on ne découvre qu’avec le temps les effets nocifs de certaines substances. Et qu’il faut ensuite encore du temps pour que les pratiques changent.
Ce que je veux démontrer, c’est simplement qu’aucune étude scientifique ne peut prédire à coup sur tous les effets. Et même quand c’est le cas, il peut y avoir quantités de raison pour que l’information n’arrive pas au consommateur ou que la prise de conscience demande du temps.
Dans cette discussion, on parle des effets (ou pas) des mobiles. Pour le coup, ça fait plus de 10 ans que c’est étudié, qu’on entend des gens dire “houlala mais c’est forcément très mauvais”, on n’aura jamais autant scruté une technique.
La multiplication des études n’est pas pour autant une garantie d’absence d’effets à long terme.
Les pesticides sont également très étudiés, ce qui n’empêche pas la découverte d’effets à long terme très longtemps après. Et qu’il a parfois fallu des décennies pour interdire certaines substances.
Pire, on trouve parfois des études contradictoires. C’est ce qui explique en partie la difficulté des politiques pour prendre des décisions.
Et je rappelle qu’on ne saurait pas expliquer comment des ondes radio comme ceux des mobiles pourraient avoir un effet autre que thermique sur les cellules.
Je suis prêt à prendre les paris.
Le problème, c’est que les scientifiques sont vraiment très très loin de comprendre l’effarante complexité des phénomènes chimiques et électriques dans le corps humain.
Les scientifiques ont juste fait ce qu’ils pouvaient par rapport à ce qu’ils pouvaient tester. Et les effets qu’ils savent mesurer.
Mais non, ce n’est pas suffisant pour être érigé comme une garantie absolue.
Seul le temps nous dira vraiment ce qu’il en est.
Le
19/05/2014 à
17h
44
OlivierJ a écrit :
Oui, et heureusement sinon ça ne marcherait pas, de fournir un débit de 100 Mb/s à tout le monde à l’arrivée.
Actuellement les liaisons les plus performantes disponibles permettent de faire transiter 100 Gb/s dans une fibre avec un seul laser.
Les progrès du WiFi sont impressionnants aussi, je ne sais plus où ça en est exactement mais on arrive au Gb/s en conditions idéales.
Mais tes propos sont vagues, à quelle limites estimes-tu que la fibre et le WiFi vont plafonner ? En l’état actuel, peu importe que le ratio entre les 2 soit important, on s’en sert et on en est satisfait.
Aujourd’hui, beaucoup se satisfont du débit du Wifi. Mais cela sera t’il encore vrai demain ?
Avec le temps, les débits et les besoins augmenteront inexorablement…
Le Wifi subit beaucoup plus de contraintes techniques qu’une liaison filaire parce que le Wifi ne peut exploiter qu’une gamme de fréquences très limitée et que le média de transmission est commun.
De plus, on peut multiplier les câbles, ce qu’on ne peut faire avec le Wifi.
Enfin, quand on parle des débits du Wifi, il faut constater que contrairement aux réseaux câblés, on est toujours assez loin des débits théoriques,
Ça tombe bien, c’est en ville (ou zone urbaine) qu’on vit de plus en plus, dans des appartements. Ton argument est à l’inverse de ta position :) .
D’ailleurs dans la maison de campagne aux murs épais de mes parents, qui fait 35 m de large, le WiFi marche assez bien.
Quand aux murs, ça dépends beaucoup de la disposition.
Même en terrain découvert on peut parfois mal recevoir à 20 m d’une antenne pro sur mat à cause de réflexions du signal.
Et je ne parle pas des gens qui ont des duplex.
Bref, les ondes, c’est capricieux. Et quand on parle de distance, il ne faut pas oublier de parler du débit. Avec le câblé, avec du bon matos, on est toujours proche du max, c’est loin d’être le cas du wifi.
Le
17/05/2014 à
19h
19
Patch a écrit :
[mode chieur]
le WiFi utilise aussi l’Ethernet (Ethernet c’est juste un protocole, pas une couche physique), c’est le RJ45 qui est principalement utilisé pour les réseaux cablés " />
[/mode chieur]
C’est vrai qu’en informatique on fait beaucoup d’abus de langages.
Peut être parce que les termes corrects sont parfois moins évocateurs ou moins sexy.
Par exemple, la plupart des informaticiens parlent d’assembleur alors qu’il savent qu’il faudrait parler de langage machine.
Le
17/05/2014 à
19h
17
OlivierJ a écrit :
On connaît les effets de l’amiante depuis la fin du 19e siècle. Et déjà quand Raymond Barre était premier ministre (dans les années 70, je précise pour les plus jeunes), on parlait du problème de l’amiante.
Donc ce n’est pas parce que quelqu’un (qui, au juste ?) vous a dit que ce n’était pas dangereux, que c’était ce que pensaient les scientifiques compétents à l’époque.
L’amiante a été un matériaux remarquable (protection anti-feu des bâtiments, en particulier) qu’il a été difficile de remplacer, ce qui explique en partie l’inertie sur le sujet.
C’est toujours facile de se rappeler subitement après coup qu’il y avait des gens qui prédisaient la nocivité de quelque chose.
Mais se rappelle t’on vraiment pourquoi personne n’a rien fait et surtout les discours contradictoires des scientifiques de l’époque ?
Penses tu que si les politiques avaient pu en tirer une certitude ils n’auraient pas pris la décision d’interdire ?
Crois tu sincèrement que les ouvriers auraient seulement accepté de manipuler ce matériau s’ils avaient réellement su ce qu’ils risquaient ?
Et je n’ai plus 20 ans non plus. Quant aux “scandales sanitaires”, desquels parlez-vous ?
Ce n’est pas ça qui manque.
Vite fait, Mediator, Distilben, Bisphenol A, Pesticides, Sang contaminé. Et bien sûr j’en oublie des quantités.
Les études scientifiques n’auraient t’elles pas du théoriquement nous protéger dans au moins certains de ces cas ?
Donc oui, la science n’est pas un rempart infaillible.
Ce qui définit une étude sérieuse, c’est justement qu’elle permet d’indiquer des tendances (impact ou pas d’impact mesurable).
« Dans l’état actuel de nos connaissances, il semble peu plausible que l’utilisation des téléphones portables cause des tumeurs cérébrales, d’autant plus que la recherche en laboratoire n’a pas trouvé de mécanisme biologique qui pourrait l’expliquer. Et les taux des tumeurs cérébrales en question n’ont pas augmenté malgré une explosion de l’utilisation des portables. »
Bref, on peut dormir sur ses 2 oreilles, on va mourir d’autre chose que de notre mobile.
Le problème, c’est justement qu’on est vraiment très très loin de tout savoir.
Quel que soit le sérieux des études, il subsistera toujours une marge d’incertitude sur le long terme. Et celle ci n’est pas quantifiable.
Donc malgré les études, une certaine dose de prudence est toujours nécessaire avec tout ce qui est nouveau.
Je ne suis pas pour une attitude extrémiste comme se passer de mobile ou de Wifi, mais je pense simplement qu’il faut être prudent dans son usage et réduire l’exposition quand on le peut.
Le
17/05/2014 à
18h
31
OlivierJ a écrit :
Si on peut utiliser du WiFi en 2014 alors que les débits ont explosé depuis la fin des années 90, c’est bien que le WiFi a suivi la progression. Et dans les années 90, le WiFi n’existait pas, en tous cas pas sous la forme actuelle. Les premiers débits ensuite n’ont pas été très élevés.
Le Wifi a progressé parce qu’il y avait une marge de progression potentielle.
Mais il viens toujours un moment ou l’on se heurte aux lois de la physique. La progression suit alors la loi des rendements décroissants.
Un bon exemple, c’est la fréquence des processeurs qui a augmenté régulièrement et rapidement à une époque mais dont la progression est aujourd’hui quasiment stoppée.
L’informatique est un domaine jeune. Beaucoup ont pu croire qu’il n’y avait pas de limite au progrès. Mais comme dans tous les autres domaines, il vient un beau jour ou on les atteint.
Je me demande sur quoi tu te fondes pour cette affirmation. Chaque technique est utilisée “à fond” au moment où elle est conçue, et on a gagné des ordres de grandeur dès qu’on a pu, que ce soit en radio, en cuivre ou en fibre.
Justement, les possibilités actuelles de la fibre optique sont sans commune mesure avec celles du Wifi.
Quand je disait que la fibre n’est pas exploitée a son maximum, c’est par rapport aux offres “fibre” des FAI qui n’exploitent qu’une infime partie de ce que la fibre peut offrir.
Quand l’usage de la fibre montera en puissance, aussi bien en Wan qu’en Lan, il est prévisible que les ondes ne pourront plus suivre.
En fait c’est l’inverse qui s’est passé : on était obligé d’avoir des câbles partout jusqu’à l’arrivée du WiFi. Depuis, il n’y a souvent plus qu’une seule arrivée câblée et tout le monde se met sur le WiFi.
Il faudrait prendre des paris :-) .
Mais cela ne nous prouve pas ce qu’il en sera demain.
D’autant que tout le monde ne s’est pas mis au Wifi.
D’une part, parce que le plus performant reste encore et toujours l’Ethernet. Les débits réels, l’absence d’interférences, la simplicité des réglages sont un confort évident.
Mais aussi parce que le Wifi convient aujourd’hui à peu près aux petits appartements citadins (et aux fines cloisons modernes), mais beaucoup moins aux grandes maisons rurales aux murs épais.
Le
17/05/2014 à
17h
49
OlivierJ a écrit :
Non, il faudrait plusieurs études bien vérifiées pour arriver à cette conclusion. L’article mentionne que pour l’instant rien n’est vraiment prouvé.
Un extrait : « [..] que dit exactement l’étude ? Les premières ligne des résultats sont pourtant claires : « Il n’y a pas de lien entre utilisation du téléphone portable et tumeur au cerveau. » Ce sont les chercheurs eux-même qui le disent. [..] »
Quand j’était jeune, on nous disait(véridique) que découper de l’amiante sans protection ne présentait aucun danger. Bien malheureux ceux qui les ont écoutés " />
Parce qu’il a fallu le recul apporté par le temps pour comprendre que l’amiante peut provoquer des cancer plus de 30 ans après l’exposition.
Donc, quand vous aurez mon age et que vous aurez connu autant de scandales sanitaires, vous accorderez sans doute une confiance moins aveugle aux études scientifiques du moment, qu’elles aillent dans un sens ou dans l’autre.
Aussi sérieuses que soient les études, l’expérience prouve que seul le recul du temps peut apporter de réelles certitudes.
C’est pourquoi, sans pour autant se couper du progrès, quand je peux réduire facilement l’exposition de mes proches aux ondes, je le fais.
Le
17/05/2014 à
07h
55
OlivierJ a écrit :
Autant le WiFi ne pourra jamais faire aussi bien que le filaire (à une époque donnée), autant je ne crois pas du tout qu’il tombe en désuétude, au contraire il s’est répandu et la commodité du sans fil me semble difficile à remettre en cause. Actuellement, chez moi j’ai environ 4 Mo/s de débit via le WiFi (et 12,5 Mo/s sur certains sites en filaire car j’ai la fibre), ce qui est plus que suffisant pour n’importe quelle utilisation à notre époque.
Le wifi tombera en désuétude, c’est une certitude parce que l’usage de bande passante suit une courbe toujours croissante.
Aujourd’hui, la fibre est complètement sous exploitée par rapport à sa limite théorique actuelle. Au contraire, les ondes sont utilisées à fond. Même si la technique repousse les limites régulièrement, les ondes ont une marge de progression bien plus limitée que les cables ou la fibre.
Tu as raison cependant sur le fait que l’intérêt en mobilité perdurera plus longtemps. Mais il y a aussi d’autres technologies comme la transmission lumineuse par laser qui disposent d’un beau potentiel et viendront peut être concurrencer le wifi.
Mais bref, ce que je voulais dire, c’est que personne n’échappera à l’installation de cables dans son logement, c’est juste une question de temps.
Encore une fois, le WiFi, tout comme le mobile, ce sont des rayonnements non ionisants. Jusqu’à présent, l’électro-sensibilité s’est révélée être du pipo, de l’effet de suggestion. Je ne pense pas une seconde qu’il y ait un quelconque danger, d’après tout ce que j’ai lu de correct. C’est plus dangereux de se mettre au soleil régulièrement.
A propos du danger, je n’affirme rien et je n’ai aucun a priori. Ce n’est pas mon métier.
Malgré les controverses, je reste simplement prudent : Parce que je me souviens quand même de toutes les choses dangereuses qui ont mis des années pour être reconnues comme telles, malgré des études scientifiques.
Même avec les médicaments qui bénéficient pourtant de procédures très rigoureuses, il y a parfois eu de mauvaises surprises à long terme.
Quand à l’électro sensibilité, c’est par essence encore plus difficile de prouver quoi que ce soit avec des symptômes qui peuvent s’avérer fluctuants et peu tangibles.
Je ne suis pas pour autant dans la paranoïa. J’utilise le téléphone mobile ou le wifi quand c’est utile. Mais je m’en passe quand c’est possible et facile de s’en passer.
Après, c’est juste mon opinion, chacun voit midi à sa porte.
Le
16/05/2014 à
18h
05
AirChtit a écrit :
….
Suis passe en Wifi AC chez moi pour des raisons pratiques (ma femme support très mal les cables et le poing lourd) et j’ai un ping en moyenne à 30ms sur n’importe quel jeu, cad le même qu’avec du filaire. A moins d’être un pro, je ne pense pas que ca gêne d’être en wifi pour peu que l’on prenne le temps de trouver le bon canal et de placer ses antennes correctement.
En revanche, jamais, ô grand jamais je ne reprendrai de dongle usb. Je dois en avoir 5 ou 6 en g, n, n+ ou ac et tous finissent par se dc pour je ne sais quelle raison, peu importe la machine et les drivers. Rien ne vaut une carte PCIe ou mini PCIe.
Par expérience, le wifi est toujours moins fiable, plus capricieux et moins performant que l’Ethernet.
Donc personnellement, je ne me vois pas acheter une carte mère sans port Ethernet.
De toute manière, dans le futur, avec l’augmentation de débits, le WIFI ne pourra jamais suivre le “filaire” dont les débits potentiels sont d’un ordre de grandeur autrement plus élevés. Il tombera donc en désuétude à un moment donné.
Il y a également une autre raison qui pousse à éviter le wifi : j’estime qu’on ne dispose encore pas du recul nécessaire pour connaître les perturbations que les ondes induisent sur le cerveau. Certains se plaignent de difficultés de concentration. Ont t’ils raison, ont t’ils tort ?
Sans être parano, je préfère ne pas prendre de risques pour moi et ma famille alors que je peux très facilement les éviter tout en ayant un système plus performant.
J’ajoute que je ne comprends pas les gens qui ne supportent pas la vue des câbles ni les raisons objectives de leurs idées reçues sur l’esthétique.
Le
16/05/2014 à
17h
25
OlivierJ a écrit :
Avoir un test d’alimentation ATX dans un article qui s’intéresse aux PC compacts, ça me paraît contradictoire.
Je me suis récemment monté un PC compact à base de carte Mini-ITX avec Celeron Ivy Bridge 1037U passif intégré, dans les 70-80 E (carte mère GA-C1037UN-EUhttp://www.gigabyte.com/products/product-page.aspx?pid=4747#sp ) et un boîtier adapté (dans les 50-60 E), la facture reste mesurée (aux alentours de 200 E, ça dépend du reste avec le disque dur et la mémoire). C’est bien sûr moins puissant qu’un PC de bureau à base de i3 ou i5, ne serait-ce qu’à cause de la fréquence de 1,8 GHz seulement, mais avec un SSD c’est très réactif, et silencieux et peu encombrant.
Non, ça n’est pas contradictoire.
Pour ceux qui montent un PC “gaming” compact, il faut des composants puissants. Et ils consomment.
Dans ces cas la, on aura tout intéret à garder une alimentation ATX.
Elles sont bien ventilées, elles sont silencieuses, elles sont standard, elles résistent bien à la poussière.
En réalité, il n’y a pas tellement de place à gagner sur l’alim.
quand tu es une école tu as un véritable but pédagogique. Il ne s’agit pas simplement de quantité de connaissance (puisque quoi qu’il arrive 90% des dites connaissances seront soit oubliées soit obsolètes (on est dans les IT ^^) à la fin de la période d’apprentissage) mais surtout de la cible professionnelles qui est visée.
Quand une école ne sait tellement pas ce qu’elle veut qu’elle ne prévoit ni diplôme ni le nombre d’années nécessaire à arriver à son but pédagogique (on parle bien de l’école, pas de l’élève pour l’instant), c’est vraiment malhonnête.
Les programmes c’est pas une manière de désapprendre. Quand tu es en études supérieur, très souvent tu as une grande souplesse dans les modules que tu choisis. Par contre c’est au département pédagogique de l’école de choisir quels modules proposer et pour cela il faut avoir vraiment réfléchi à l’objectif pédagogique. Une école c’est pas une formation e-learning payée par ton entreprise hein, c’est totalement autrechose. Et que 42 ait des méthodes pédagogiques propres est une hcose, mais qu’elle ne se comporte pas comme une école tout en prétendant en être une c’en est une autre et pour moi elle est très grave.
Mouai, faut arrêter de répéter la communication très marketting de l’école. Perso je dirai que 50% de ma formation est autodidacte, je suis dans une école d’ingé CTI, et sans les 50% non “autodidacte” je ne serai pas dans une telle situation de réussite, pourtant je ne fais pas partie des cancres !
Oui ! une école c’est un projet pédagogique, par définition, un projet a une date de fin connue dès le début du projet (date de fin qui peut bouger, certes, mais elle doit exister, sinon c’est pas un projet). Or en disant aux gens “bah écoutez, vous êtes là, mais vous savez pas pour combien de temps”, ils n’ont pas un projet pédagogique et pour les élèves c’est encore pire car cela limite leur projet professionnel.
42 est une école nécessaire (dans sa pédagogie, dans son niveau de recrutement, dans les principes inculqués) mais sa communication et son manque de transparence limitent énormément la confiance que je lui confie.
OMG : la progression ne s’arrête pas à la fin de tes études, et heureusement !
Ensuite entre une simple formation et une école il y a des différences importantes; tu veux te former : va sur FUN/coursera/MVA…
Dans le domaine des IT, le système classique -qui est déjà très varié- va justement permettre un vrai épanouissement aux sur doués. 42 ne vise pas du tout ces gens là, faut arrêter de répéter leur com.
En ce qui me concerne, je n’ai jamais lu la “com” de cette école.
En revanche, je sais comment des autodidactes se sont formés. Sans buts pédagogiques, sans cadre. Et certains n’en sont pas moins devenus excellents et avec des qualités que la plupart des diplômés ne possèdent pas.
En matière d’enseignement, je pense qu’il faut réaliser que diriger les gens, c’est leur empêcher d’apprendre à la faire.
Parce que l’apprentissage ne s’arrête pas au diplôme et que par la suite, personne ne vous dira ce qu’il faut apprendre et comment. Beaucoup cesseront alors de progresser parce qu’ils n’ont jamais appris à apprendre sans cadre pédagogique.
Le
17/05/2014 à
20h
23
artragis a écrit :
méthodes qui sont déjà proposées ailleurs mais avec un vrai programme pédagogique et un vrai but. Quand tu sais pas combien de temps tu vas garder les gens, c’est pas honnête.
Fixer des programmes et des buts tout au long de la vie d’un étudiant, n’est ce pas aussi leur désapprendre à le faire par eux même ?
Donc je pense que cela peut faire partie de la méthode.
Il est possible que l’idée soit née du constat qu’en informatique certains autodidactes ont de grandes qualités. Et que ces qualités sont justement nées de cette absence de cadre qui leur as permis d’apprendre à apprendre et de devenir plus créatifs sur le long terme.
Quand à la durée, si l’idée d’une école c’est de revenir à l’idée d’apprendre et non pas de faire juste de la sélection, la durée a t’elle toujours de l’importance ?
Dans ce contexte n’est ce pas aux élèves de savoir quand ils cessent de progresser et doivent passer à autre chose ?
Enfin, je pense que l’idée est peut être de récupérer certains profils de surdoués qui ne peuvent pas réussir dans le système classique.
Le
15/05/2014 à
22h
59
127.0.0.1 a écrit :
Non, ca c’est que veulent les SSII: des profils standards, formatés et interchangeables qui se vendent bien.
L’industrie elle cherche réellement des génies et des créatifs… le problème c’est qu’elle les cherche dans les offres des SSII " />
C’est clair.
Le
15/05/2014 à
22h
53
Desirdo a écrit :
Mon dieu le test de graphologie… On ne se débarrassera jamais de cette horreur? :(
Les tests graphologiques et autres bêtises astrologiques (ou numérologiques) n’ont qu’une seule raison d’être : meubler la prestation de recruteurs qui n’ont pas réellement la capacité à évaluer les aptitudes technique des candidats. " />
Le
15/05/2014 à
22h
39
linconnu a écrit :
Attention comme 42 il semblerait que ça soit une fausse école c’est à dire non reconnue par l’éducation nationale donc si vous y aller vous n’aurez rien à la fin vous serez un bac + 0.
En même temps, l’intéret de 42, c’est de proposer des méthodes pédagogiques différentes pour des gens qui n’ont pas le profil standard.
Même si la réputation de free sur le plan technique donne un a priori favorable, personne ne sait encore ce que ça vaudra vraiment sur le marché dans quelques années.
D’autant qu’une bonne partie de l’industrie ne veut pas des génies de l’informatique, ni des créatifs qui font de l’innovation. Ils veulent surtout des employés bien formatés, dociles et qui ne coûtent pas cher.
Donc la réponse à la question dépendra de la capacité des entreprises françaises à exploiter des vrais talents. Et ça, c’est pas gagné.
Le
15/05/2014 à
17h
31
Z-os a écrit :
C’est une tentative pour faire baisser les salaires des ‘informaticiens’ français " />
Le salaire des informaticiens est déjà parmi les plus bas comparé à d’autres diplômes de durée équivalente. Sans parler des carrières qui sont parmi les plus courtes.
C’est clairement une profession qui ne sait pas se défendre.
Le
15/05/2014 à
17h
26
maxxyme a écrit :
“fausse” faut pas exagérer… selon ton critère l’EPITA/EPITECH aussi serait une “fausse” école. c’est juste non reconnue par l’éducation nationale… mais c’est pas eux qui embauchent hein… ;)
Un diplôme reconnu, en France, c’est quand même un énorme avantage. Rien qu’a cause des conventions collectives et des barèmes dans certaines entreprises.
Une formation non reconnue peut convenir, mais à condition qu’elle soit réputée. Ce ne sera malheureusement pas le cas de toutes.
Dites vous bien qu’en informatique, il y a la période de temps ou vous serez “prisé”, c’est à dire jusqu’a 35 ans. Et ensuite il y a l’après qui est beaucoup plus dur à gérer.
Il n’est pas réellement certain que l’on se rappellera de la formation de l’entreprises XY dans 20 ans.
Le
15/05/2014 à
17h
09
Thoscellen a écrit :
Oui mais quant on sort du BAC, on est pas encore très préparé à la rudesse / rudeté / rudeure / " /> au caractère rude des entretiens, ni très sûr de ce qu’on a envie de faire. Or, c’est souvent durant les DUT et autres qu’on l’on forme les jeunes étudiants à se rechercher un emploi.
Et pour les étudiants étrangers, c’est encore pire de passer un entretien d’embauche ! Pour le coup, le modèle anglo-saxon s’en tire mieux.
Pour les tests de personnalité, j’me suis jamais sentit a l’aise avec ces trucs là, ça remet en question ma capacité a me couler dans le moule de la société, ce que je ne veux pas faire.
D’ailleurs, quand on connaît le profile psychologique assez particulier des vrais talents en informatique, il est évident que le recrutement “à la française” ne peut que les faire fuir.
Au final, ce système contribue à faire émerger des profils “lisses” mais rarement talentueux.
Le
15/05/2014 à
16h
25
TZDZ a écrit :
Les tests de personnalité et analyses graphologiques c’est plutôt positif. Ça permet aux étudiants d’être confrontés au recrutement arbitraire des entreprises. Peut-être devraient-ils confier l’entretien d’entrée à des boîtes de RH, si possible ignorantes des problématiques techniques.
Ces méthodes subtiles de recrutement font leurs preuves, pourquoi s’en priver ?
Quand on connaît le penchant des vrais geeks pour le clavier plutôt que le stylo, je doute de la pertinence.
Le
15/05/2014 à
16h
20
En France, il y a déjà tous les talents et les compétences qu’il faut en informatique.
Simplement, comme dans tous les domaines, la compétence et l’expertise se paye.
Et ça, c’est une chose que les patrons français ont encore du mal à comprendre.
Faute de débouché, les talents partent à l’étranger ou changent de métier.
A quoi bon investir dans la formation si nous ne sommes déjà pas capables de rentabiliser convenablement ceux qui ont été formés ?
Je me souviens de leur méthode plus que litigieuse pour tester qui avait donné lieu à de nombreuses critiques dans les commentaires.
Plus particulièrement, dans les jeux, où ils testaient les proco en basse résolution (moins que du 720p) pour “évaluer” son impact sur le jeu. Cela leur permettait de montrer un important écart entre les cpu intel et amd. Mais, étrangement, ils passaient sous silence le fait qu’en fullhd, les perf étaient similaires.
Dans le genre, le gars qui achète un proc dernier cri pour jouer avec des gros pixels sur l’écran" />
Ils ont modifié leur protocole depuis, mais je vérifie toujours à coté les résultats d’autres testeurs.
Mettre la résolution en 800x600, c’est le bon protocole pour tester des processeurs parce que cela diminue l’influence de la carte graphique.
Mais il est évident qu’il faut considérer cela comme un test synthétique.
Pour un test en usage réel, c’est moins simple parce que la différence entre les processeurs dépendra aussi beaucoup de la carte graphique. Une carte bas de gamme aura tendance à niveler les différences, une carte haut de gamme à les accentuer.
Donc cela pose aussi le problème du choix de la carte pour un test.
Le
17/05/2014 à
21h
24
js2082 a écrit :
J’aime bien le test sur le intel i7 4790.
Il est marrant de voir qu’un i7 980X qui date d’il y a 4 ans lui tient toujours la dragée haute.
Et bizarrement, bien que de nombreux testeurs ne cessaient de décrier les proco AMD en raison de leur soi-disant “ faible” puissance à leurs sortie, on peut constater qu’étrangement, quelques temps plus tard, un AMD FX 8350 est loin d’être à la ramasse par rapport à ce processeur dernier cri d’intel (et même par rapport à de nombreux Intel)." />
De là à en déduire que certains testeurs biaisent sciemment les résultats des tests pour favoriser une certaine marque, cela ne me surprendrait pas." />
Surtout que, par le passé, un certain Intel avait déjà payé des journalistes pour dévaloriser les tests de leur concurrents (à l’époque des K6-2 si je me souviens bien).
Non. Il n’y a pas de complot anti AMD chez les journalistes.
Le problème des CPU AMD, c’est l’architecture particulière de leurs dernières créations.
Ils ont visiblement choisi de diminuer l’IPC et d’augmenter le nombre de coeurs. Un pari qui ne s’est pas avéré payant pour tout.
Donc il n’est pas étonnant que ça ne donne bien que sur des programmes capables de faire usage d’un parallélisme massif. Et encore, à condition de ne pas trop taper dans la virgule flottante.
Pourquoi donc les journalistes seraient sensés ne sélectionner que ces programmes la dans leurs tests ?
Mais soyons optimistes, la personne qui va s’occuper des prochains CPU AMD n’est autre que le père des K7(Un CPU excellent en terme d’IPC). C’est un bel espoir de voir les choses changer.
Le
17/05/2014 à
21h
07
HarmattanBlow a écrit :
En théorie, tout à fait.
En pratique les réglages sont limités et tu es obligé sur bien des souris de baisser les DPI pour garder une souris maniable. Or ça ne sert à rien d’avoir du 2k dpi si les pilotes et les réglages ne suivent pas.
Oui, il arrive souvent que dans les jeux les réglages soient trop limités pour pouvoir ajuster comme il le faudrait. Mais il existe une astuce, c’est d’aller directement changer le coefficient dans le fichier de config du jeu. C’est d’ailleurs plus pratique car cela permet par calcul de retrouver exactement le même déplacement quand on change les DPI.
Et je passe sur a qualité douteuse de la finition, la conso CPU parfois déraisonnable
Alors, la conso CPU qui augmente, c’est principalement causé par la fréquence d’envoi des informations qui est augmentée sur certaines souris. De 125 Hertz de base, cela peut atteindre jusqu’a 1000 Hertz .
Les bonnes souris permettent de le paramétrer. Pour ma part, je déconseille de le mettre ça 1000Hz. A 250 Hertz, c’est déjà très bien.
ou le comportement naze de certaines sur du bois.
Personnellement, je ne suis pas trop convaincu par les capteurs laser même si je ne suis pas spécialement mécontent du mien. Sur le bois, il fonctionne bien. Mais si ta table est vernie, cela peut expliquer le problème.
J’en ai raz-le-bol des marques pour joueurs qui misent sur le marketing plutôt que la qualité.
Hélas, c’est malheureusement souvent le cas. Et je suis d’accord que quand une souris est vendue chère on est en droit d’attendre une qualité au top.
Ma précédente souris était une Razer, la présente une Steelseries. A chaque fois le DPI est allé croissant et la maniabilité décroissante. La prochaine fois je me tourne vers Logitech ou Microsoft quitte à plafonner à 400 dpi Je parie que mieux vaut un bon pilote de toute façon.
Tu ne trouvera plus de souris à 400dpi, même en bureautique. Maintenant c’est tout du 800 à 1000 DPI minimum. Et toutes les souris bureautique récente que j’ai pu essayer décrochent super facilement depuis qu’ils sont passés au laser.
Donc malheureusement, si tu joues à des trucs nerveux, la souris “gammer” est recommandée.
Après, personnellement j’ai une Logitech G700 dont je suis content, tout y est paramétrable, depuis la sensibilité jusqu’a la fréquence et pleins d’autres trucs. Mais comme tout produit, il y a du bon et du moins bon.
Par contre, je n’ai pas encore assez de recul pour pouvoir dire si elle est fiable dans le temps.
Quand à la maniabilité, c’est aussi parfois une question de forme, de gout et d’habitude. Pas sûr que ce qui convient à l’un plaira à l’autre. Certains préfèrent des souris légeres, d’autres plus lourdes. Certains préfèrent un profil bas, d’autre plus haut : nous n’avons pas tous la même taille de mains.
Bref, il ne suffit pas de payer sa souris cher pour en être content.
Le
17/05/2014 à
01h
04
bojack9512 a écrit :
D’accord pour la précision sauf que tu sais avec quelle souris joue fatal1ty? Avec une Microsoft 1.1 SE Optical Mouse(après quelque recherche ce serait une Microsoft Intellimouse 1.1 Optical), et cette souris n’a que 400dpi(d’ailleurs il y a encore beaucoup de joueurs qui considèrent cette souris comme étant la meilleure qui est). Comme quoi au final ce n’est qu’un nombre sans grand intéret.
J’ai joué des années avec cette souris. J’en avais même un stock. Elle était vraiment excellente en terme de maniabilité et (plus inhabituel pour une souris non spécialisée), de tenue aux accélérations.
Mais depuis, les capteurs ont beaucoup évolué.
Et ce n’est pas parce qu’un joueur réputé a gardé longtemps une souris avec lequel il était habitué qu’il faut considérer que c’est un vrai signe : D’autres joueurs tout aussi réputés ont fait des choix différents.
Tout dépends également des jeux et du style de jeu des joueurs. Ceux qui préfèrent les engagements nerveux à courte distance ne souffriront pas d’une souris à faible DPI.
Mais le joueur qui dispose d’un grand écran et aime aligner les tirs de précision sans zoomer bénéficiera beaucoup d’avoir une souris plus sensible.
Et dans tous les cas, les souris pour joueur ont d’autres caractéristiques importantes, comme le fait de tenir sans décrocher de fortes accélérations ou de permettre une transmission des données plus fréquente et avec le minimum de latence.
Le
16/05/2014 à
23h
16
John Shaft a écrit :
Tu bouges de 3mm la souris sur le tapis, tu fais 3m sur l’écran
" />
Combien de fois faudra t’il expliquer que cela ne fonctionne pas comme ça.
Il faut voir cela comme la précision sur une distance donnée et non pas comme l’augmentation de la vitesse de déplacement.
En jeu, quand on tire de loin, ça a son importance.
Bien sûr, il faut ajuster les règlages de souris dans le jeu par rapport à la vitesse de déplacement que l’on souhaite.
Par exemple, si on passe d’une souris 800 DPI à une souris 1600DPI, il faut modifier le coefficient par deux.
Certains me diront que rien ne change parce que la vitesse de déplacement sera la même. Sauf que la précision sera augmentée.
Jouez avec une souris à 800-1000 DPI et essayez de tirer au pixel de loin, vous comprendrez ce que cela signifie.
La plus part…c’est pas tous et ça en laisse pas mal de coté (BF3, GTA5,…) et steam linux est relativement récent un petit peu plus d’un an de mémoire
Il ne faut pas rêver, il faudra du temps aux éditeurs pour aller vers une logique de conception multiplateforme.
Mais patience, cela viendra.
Il faut se rappeler de l’époque ou la plupart des sites web n’étaient conçus que pour internet explorer.
Heureusement, on a quand même fini par en sortir…
Le
14/05/2014 à
18h
44
antineus a écrit :
Réinstaller l’OS parce qu’on change de carte mère … no comment.
Il y a 2 semaines, j’ai installé Ubuntu sur un PC, puis déplacé le disque dur sur une autre machine (matériel complètement différent).
Ubuntu a fonctionné sans aucun problème.
Linux est beaucoup plus à l’aise avec les changements de matériel que Windows.
Cela fait partie des avantages majeurs de cet OS.
Alkore a écrit :
Le pb, c’est surtout la compatibilité. LibreOffice a du mal avec par exemple certains fichiers xl" />
Après pour des fichiers pas très élaboré, je dirais que même une tablette suffit pour Mme Michu" />
C’est normal que deux logiciels différents ne soient qu’imparfaitement compatibles. Mais le problème est essentiellement théorique. En pratique, les situations ou cela pose des problèmes sont assez rares.
Quand à la tablette, c’est inadapté même pour “monsieur tout le monde” à cause de l’absence de clavier. Même taper un simple courrier n’est pas réellement confortable.
Un expert est-il plus plus heureux en savourant un Saint-Emilion Grand cru classé qu’un débutant en savourant un Beaujolais nouveau ?
Pourquoi faire des efforts pour un bonheur identique ?
Et je sais de quoi je parle: avant j’avais beaucoup le thé en sachet qu’on trouve un peu partout… aujourd’hui, je suis incapable d’en boire tellement je les trouve mauvais (même ceux servis dans certains restaurants “de luxe”).
Je ne suis pas plus heureux aujourd’hui avec mes “bons” thés qu’hier avec mes “déchets” en sachet….
Bien sur, c’est sympa pour frimer… mais à part ça ? J’y ai juste gagné de ne plus pouvoir boire un thé à la machine “à café” du boulot avec les collègues.
Non, le bonheur de savourer des bons produits n’est pas du tout le même qu’avec des produits industriels bas de gamme. Ce n’est simplement pas comparable. Mais pour le comprendre, pour le percevoir vraiment, il faut développer réellement sa perception, ce qui peut prendre du temps.
La logique de la qualité et de la culture apporte également un bonheur à plus long terme parce qu’elle apporte beaucoup plus de profondeur. Mais la encore c’est uniquement avec le temps qu’on peut comprendre VRAIMENT la différence.
Enfin, les considérations ne s’arrêtent pas seulement à la notion de plaisir, mais c’est également une question d’intérêt financier et de préservation de sa santé.
Parce que ce n’est pas à 25 ans que l’on regrette d’avoir consommé trop souvent de la “junk food”, mais à 50 quand vos artères présenteront l’addition.
Les aliments pauvres en vitamines et oligo éléments amènent une dégradation des les performances intellectuelles et physiques.
La pollution aux pesticides et additifs chimiques apporte quantité de troubles de santé qui sont encore aujourd’hui mal étudiés et mal connus.
L’excès de sucre et de graisses provoque le diabète et des maladies cardio vasculaires. Ce sont les premières causes de mortalité.
De la même façon, les produits “culturels” commerciaux bourrés de clichés et de lieux communs n’amènent à aucun développement de la conscience et de l’intelligence.
J’y ai juste gagné de ne plus pouvoir boire un thé à la machine “à café” du boulot avec les collègues.
Les machines à café, c’est un immense business. L’étudier, c’est comprendre beaucoup de choses.
Les entreprises n’imposent pas grand chose… elles fournissent et elles cherchent à influencer. Le consommateur reste le seul à choisir.
C’est la ou tu te trompes par méconnaissance.
En réalité, ce n’est pas parce que tu crois choisir que tu choisit réellement. " />
(1) D’abord parce que le marketing agit sur le subconscient de manière extrêmement insidieuse. Avant de l’avoir étudié, tu ne peut même pas imaginer jusqu’où cela peut aller pour tordre ta perception des choses. Et il n’y a qu’une seule manière de le contrer, c’est justement de réfléchir sur sa consommation. Donc de dépasser la notion de plaisir à très court terme.
(2) Ensuite parce que le système commercial profites de sa puissance financière pour rendre les produits qui les arrangent beaucoup plus facilement disponibles, plus aguichants et plus faciles à utiliser pour le consommateur. C’est l’exemple même de ta machine à café.
brazomyna a écrit :
" /> sr17, tu viens juste de confirmer ce qu’il disait avant, soit que tu es incapable de concevoir que ta réalité n’est pas universelle. Tu compenses en invoquant l’idée que ceux qui ont un goût différent ne sont que des gens qui se sont fait manipuler par le marketing (mais toi, non, hein, tu es au dessus de ça, bien entendu, puisque LA vérité unique, c’est toi qui la détient).
D’abord, il ne faut pas confondre les gouts différents et le manque de culture.
Que ce soit en matière de gastronomie, de jeux vidéo, de littérature ou de film, une daube commerciale est une daube commerciale. Leur but objectif, c’est de faire de l’argent facilement.
Le talent et la qualité auront toujours un coût et des complexités qui s’opposent à la notion de profit facile.
Enfin, même si la vérité unique n’existe pas, ce n’est pas pour autant que les conseils d’autrui sont sans aucun intéret.
Beaucoup d’enfant pensent à un certain age que les glaces, les frittes et le soda c’est bon. Et la plupart des parents essayent de leur faire comprendre que leur intéret n’est pas la. Ont t’ils forcément tort ? Sont t’ils d’horribles dictateurs qui imposent “leur” vérité ?
Enfin, une discussion doit t’elle forcément se résumer par la notion de tort ou de raison qui devrait forcément aboutir à une vérité prouvable et objective ? N’est ce pas simplement un échange de point de vue ou chacun des interlocuteurs reste totalement libre de décider ce qu’il veut en reprendre ?
Le
10/05/2014 à
01h
06
Faith a écrit :
C’est navrant de voir des mecs proclamer ce genre de propos bornés.
Si on aime quelque chose, peu importent les raisons. Il n’y a pas une “bonne” façon d’aimer ni une “mauvaise” façon. Et ce qu’on aime est bon, c’est aussi simple que ça.
Ce que TU aimes n’est pas meilleur qu’autre chose.
La propension de notre génération à vouloir imposer leur choix perso en Seule Vérité est effrayante.
Oui, mais n’est ce pas aussi la voie de la facilité ?
La culture, la gastronomie, cela demande de gros efforts avant d’être capable d’apprécier.
Et c’est avec des efforts pour aller vers le mieux que les goûts évoluent.
Enfin, personne ne t’impose rien. C’est juste que d’autres ont un avis différent du tient.
D’ailleurs, si un jour tu étudie le marketing, tu comprendra a quel point les entreprises imposent d’abord la culture qui leur est profitable. " />
Le
09/05/2014 à
17h
45
Faith a écrit :
Comme si “l’intérêt du jeu” était le même pour toi, moi et les autres…
Pour les différences d’intérêt, il y a des types de jeux différents.
Mais ce dont je parles, c’est très différent.
En gros, c’est la différence entre la gastronomie et le fast food.
Les effets waouh dans les jeux vidéo, c’est un peu comme le sucre et les sauces bien grasses : des artifices qui servent souvent à masquer la médiocrité.
Après, il y a des gens qui pensent qu’ils aiment le fast food. C’est tout le génie du marketing d’arriver à faire croire aux gens que ce qu’on leur fourgue(et qui est rentable), c’est ce qu’ils aiment.
C’est juste parce qu’ils ne connaissent pas encore vraiment ce qui est bon. Et ce n’est pas les grands industriels qui chercheront à leur apprendre.
Le
09/05/2014 à
16h
11
Faith a écrit :
C’est fou, il y a donc des millions de joueurs qui pourraient s’éclater à jouer gratuitement (ou presque) à des super jdr textes, et au lieu de ça, ils préfèrent payer 50/60€ pour un jdr bien moins bon avec des graphismes dernière génération… C’est fou non ?
J’en conclue donc que:
soit les joueurs sont majoritairement masochistes et préfèrent ce qui a le plus d’inconvénients
soit gokudomatic a parlé d’un monde imaginaire et illusoire.
Entre les deux, j’ai beaucoup de mal à me décider…
Tu noteras qu’en plus, je ne me suis pas contenté de pareler de graphismes, mais également de gameplay…
La réalité est plus cynique : le consommateur lambda préfère ce que le marketing aura décidé de lui faire préférer.
Ce sont généralement des produits ni très bons, ni très mauvais, pleins d’effets “waouh” et marketés à coup de gros moyens.
Quand on recherche vraiment l’intérêt de jeu, mieux vaut regarder ailleurs.
Le
09/05/2014 à
16h
03
brazomyna a écrit :
Rien de trollesque dans mes propos. Je montre juste que ton cheminement de pensée est juste fondamentalement tordu, puisqu’il part d’un cas particulier pour lui faire dire n’importe quoi.
Le seul qui trolle grassement, c’est celui qui prend un cas particulier, en l’occurrence l’histoire d’UN développeur pour réussir à nous conclure des généralités idiotes.
Mais je m’inquiète pas. Dans trois jours, trois mois ou trois ans, quand on aura un article à propos du succès d’un développeur seul qui nous aura pondu le nouveau succès à la Minecraft, tu viendras te contredire tout seul avec les mêmes généralités mais dans le sens inverse.
L’ennui, c’est que tu n’argumente pas.
Par définition, tous les cas sont particuliers.
Mais il n’est pourtant pas très dur de prouver qu’un succès à la Minecraft, c’est l’exception rarissime et que la généralité est plutôt à l’opposé.
C’est pourquoi je t’invite à passer outre ta réaction épidermique et à relire calmement mes propos pour comprendre ce que je veux dire.
Le
08/05/2014 à
16h
51
seb2411 a écrit :
Pourquoi il n’y aurait plus aucun gain ? Il va pas vendre tous ses exemplaire le jour 1. Les ventes se repartissent en général sur plusieurs mois ou années.
Non
Seul une minorité de jeux arriveront à un niveau de buzz suffisant pour que les ventes se maintiennent passé le pic initial.
Mustard27 a écrit :
C’est clair que de nos jours programmer seul un jeu pour PC c’est de la folie pure et ça montre un manque cruel d’expérience et de raison.
Si on veut faire cavalier seul et gagner de l’argent, je pense que les jeux sur Smartphone ont plus de chance de convenir à un unique developpeur, quand on voit le nombre d’utilisateur de smartphone.il est clair que le potentiel est énorme et l’investissement (en heures de travail) bien plus faible que pour une machine telle que le PC.
Et pourtant, si le monde n’était fait que de gens raisonnable, beaucoup d’oeuvres n’auraient jamais existées.
C’est pourquoi les petits créateurs qui ont fait l’impossible méritent un énorme respect, même quand ils échouent.
brazomyna a écrit :
on va trouver un commentaire pour prendre un cas particulier et vouloir le faire rentrer dans sa petite vision de l’économie toute étriquée pour en faire une pseudo démonstration à deux balles
" />
Oh le beau troll " />
Pas besoin d’aller très loin pour comprendre qu’en France on ne se préoccupe que du risque pour le consommateur, mais jamais de ceux du créateur.
Le
08/05/2014 à
15h
49
A quoi reconnaît t’on que nous sommes en France ? Quand un sujet parle d’économie, la plupart des commentaires se trompent de direction.
Le fait que le programmeur ait fini en burnout sans pouvoir rémunérer un suppléant est d’abord très significatif du manque cruel de rentabilité du projet.
Le cas est classique : un homme seul qui fait le boulot d’une équipe, au bout de quelques mois il est cramé. Et quand en plus les finances ne suivent pas, c’est la fin.
Ce qu’il faut savoir, c’est que de nos jours, beaucoup de marchés ont tendance à devenir binaires : un produit est soit très rentable, soit pas du tout.
Internet n’a pas que des bons côtés. Les phénomènes de buzz tendent à concentrer le succès (et les finances) sur un faible nombre de produits, ce qui est catastrophique à tous points de vue.
Vous êtes marrants avec votre fronde anti TN, mais pour le moment niveau réactivité / imput lag / taux de rafraichissement à part le Eizo Foris FG2421 (qui est en VA et pas en IPS et qui souffre d’un peu d’input lag) on a que du TN à se mettre sous la dent.
Après, j’avoue que TN et 10bits / 4K, je comprends pas l’association foireuse là.
C’est clair que pour ceux qui jouent à des jeux un peu rapides, hors du TN point de salut.
En plus de 20 ans de métier, jamais utilisé. En général, on évite ce genre de construction, c’est assez scabreux niveau lisibilité et maintenabilité.
Pour prendre un exemple, dans l’aéro (ou dans les logiciels sécuritaires en général), tu utilises un pointeur de fonction (donc même pas un pointeur de pointeur, hein), et le certificateur sort son lance-flamme illico " />
C’est que les boulettes genre Ariane V qui part batifoler à droite ou à gauche, ils aiment pas trop…
En même temps, ça dépends de ce que tu codes.
Il y a des domaines ou l’on voit des pointeurs tous les jours parce qu’on recherche la performance avant tout.
Après, si c’est bien fait, ça n’est pas moins fiable. C’est juste qu’avec les pointeurs c’est beaucoup plus facile de faire des conneries graves par inattention, donc cela demande plus de rigueur, plus de vérifications et aussi beaucoup plus de savoir faire pour déverminer.
Le
03/05/2014 à
19h
53
GentooUser a écrit :
Souvenirs : FreeSinon, bien que ce soit le langage avec lequel j’ai commencé, je ne l’aime plus trop, maintenant que j’ai moyen de le comparer à ses contemporains, vouloir être “BASIC” ne justifie pas tout, et par certains points il aurait plutôt fallu l’appeler ARCHAIC.
BASIC avait quantité de défauts. Et même si les implémentations récentes ont corrigé les plus criants, cela n’aura pas été suffisant.
Parce que la réalité, c’est que la plupart des langages “utiles” utilisent aujourd’hui une syntaxe dérivée de C.
En ce sens, BASIC est effectivement obsolète.
Le
03/05/2014 à
19h
15
baldodo a écrit :
ce qui faisait la lenteur c’était surtout le fait que c’était un langage interprété. Il y avait quelques compilateurs basic mais pratiquement aucun utilisateur “normal” n’en avait sous la main (pas plus que de compilateur C d’ailleurs).
Sur certaines machines, un truc connu était d’accéder directement à l’adresse des chaines avec des poke. Mais à ce stade, on passait plutôt directement en assembleur.
Sur les machines de l’époque (hors PC) il y avait l’interpréteur Basic qui faisait plus ou moins office de shell et c’était tout. Pour le reste il fallait acheter à part (par ex. un assembleur Z80 ou 6809 suivant les machines).
C’était d’ailleurs une excellente idée. " />
Hélas, avec le temps beaucoup de bonnes idées se sont perdues.
Le
03/05/2014 à
17h
52
juliedemeetic a écrit :
mouais le GOTO c’est sale,
mais le BASIC, au moins il est mort, pas comme le C, et en BASIC au moins, on additionne pas des caractères avec des entiers.
CaptainDangeax a écrit :
Ou pire, des entiers et des pointeurs. Maintenant je préfère le python, c’est propre, c’est bien identé il y a une foultitude de librairies. spam, spam, eggs, spam and bacon and spam.
Le C est un langage propre… si vous savez coder proprement " />
C’est un langage conçu pour la performance et le codeur expérimenté. Pas pour le stagiaire qui as besoin d’un langage “couche culottes” qui l’empêche de faire n’importe quoi.
Quand aux chaînes en Basic, je me souviens surtout de la lourdeur et de la lenteur de ce langage, entre autres parce que les caractères ne sont pas manipulables comme un tableau d’entiers.
Quand à python, c’est un langage qui n’a pas le même but. D’ailleurs, je ne le recommanderais pas : la syntaxe est dépassée et s’éloigne trop des standards actuels.
Et encore une fois des taux publiés sans intervalle de confiance. Alors qu’ils ont tous sous la main pour le faire.
En l’état seul les extrèmes sont comparables (et encore), l’ensemble des autres taux n’ont aucune de comparaison (ni même absolue d’ailleurs).
J’aimerais qu’un site qui comme Next Inpact, qui se targe de posséder une ligne éditoriale droite et intègre, puisse au moins faire cette remarque. Lorsque l’on se place dans la ligne d’@si et/ou de médiapart, ce serait la moindre des choses.
C’est le b.a.-ba de tout travail sur les taux.
En même temps, les plus grands média publient tous les jours des statistiques qu’ils ne vérifient pas et sans vraiment de regard critique. Et cela, pour des sujets bien plus graves.
Donc, je te trouve bien dur avec PCI qui ne fait que relayer cette info qui est parmi les rares existantes sur le sujet.
Après, si on veut être plus royaliste que le roi, l’intervalle de confiance ne permettra pas de rendre ces stats beaucoup plus pertinentes dans la mesure ou dans un domaine technique, aucun calcul ne peut remplacer une analyse précise des raisons.
Dans certaines catégories de produit, je pense qu’il ne faut pas grand chose pour faire grimper un taux de retour d’un ou deux pourcent sans que les produits ne soient réellement défectueux.
Le
05/05/2014 à
18h
06
kwiss a écrit :
Pour Seasonic faut aller dans le détail et regarder un peu sur les forums. Les taux de retour élevé sont surtout sur les 80+ platinium (les X et les P) qui ont une fâcheuse tendance (enfin à 3-4% quoi) à siffler. Vu le prix c’est difficilement acceptable, et c’est d’ailleurs pourquoi le SAV ne fait aucune difficulté à les changer dans ces cas là.
Donc Seasonic fait probablement les meilleurs alimentations niveau stabilité du courant et protections mais je suis pas du tout étonné de les voir à un taux plus élevé que les autres. (enfin on parle de 3%, c’est pas la mort non plus)
Sans compter qu’avec leur mode semi fanless optionnel, ça doit certainement attirer les adeptes de silence. Et tu as raison de préciser que le prix rends logiquement les acheteurs pointilleux. On ne saurait pas les en blâmer.
Cela étant dit, je viens d’en acheter une et je n’ai pas remarqué. Mais n’étant pas du tout un adepte du fanless (j’aime quand c’est TRES bien refroidi), je suis certainement un très mauvais testeur en la matière.
Maintenant, c’est possible qu’ils aient corrigé en fab avec le remède habituel à ce genre de problème : un peu de glue sur le composant qui vibre. Ca tient à peu de chose.
Le
05/05/2014 à
17h
50
martino a écrit :
dommage de n’avoir qu’une seule source…on apprend surtout si ce commercant est plus ou moins tombé sur une mauvaise série de produits (ou client).
En même temps, on peut imaginer que les produits de même ref chez des revendeurs différents proviennent certainement des mêmes usines.
Cela dit, il m’est déjà arrivé de voir des cas inverses, par exemple pour des écrans. Mais cela semble plus rare pour la pièce détachée.
Le
05/05/2014 à
17h
28
Contrairement à ce que certains affirment, ces statistiques ont une signification.
Bien sûr, il est évident qu’elles ne disent pas tout. La cause de la panne serait riche d’enseignement. Et tous les cas sont particuliers.
Donc tout est question de savoir les interpréter au cas par cas.
Par exemple, le minage explique certainement le fort taux de panne du côté des GPU AMD : il suffit de parcourir les forums dédiés pour constater le nombre de newbies qui se lancent dans le minage sans aucune connaissances techniques en faisant absolument n’importe quoi (alors que le minage c’est particulièrement exigeant avec le matos) : Il est trop courant de voir des gars qui mettent de forts overclockings en H24 sans même prendre la précaution d’undervolter ni de mesurer les températures des VRM… sur des cartes d’entrée de gamme. Et qui se plaignent après de voir leurs cartes griller comme des mouches. " />
Cela étant dit, cela nous montre aussi les cartes qui sont plus solides que les autres à ce petit jeu. Et c’est riche d’enseignement, même s’il y a un biais statistiques évident par rapport à la gamme de prix : On peut imaginer que les mineurs achètent plus rarement les modèles de cartes les plus onéreux.
Autre problème par rapport à ces statistiques, elles ne montrent que la période ou le revendeur reprends la majorité des produits. Donc ça n’est pas forcément significatif à long terme. Un exemple qui montre bien cela (mais qu’il faut également interpréter avec les nuances nécessaires) :
Bref, les taux de panne à court, moyen et long terme ne sont pas forcément en corrélation.
Et l’on peut évidement se poser la question des différences entre les politiques de garanties des constructeurs : quand un constructeur assure le SAV en direct, le revendeur n’est pas forcément informé d’un produit défectueux.
Bref, il serait intéressant de connaître le détail des causes de pannes et surtout, s’il s’agit de défauts qui affectent l’ensemble de la production ou au contraire seulement quelques exemplaires isolés. Dans un cas, les utilisateurs qui utilisent beaucoup leur matos pourraient rencontrer plus rapidement un problème qui peut affecter la plupart des exemplaires dans le temps. Ou au contraire des défauts de production limités qui même avec un taux élevés peuvent laisser les exemplaires non touchés exempts de tout problème.
Le problème, c’est qu’on subodore que Carmack a commencé à travailler pour l’Occulus VR alors qu’il était encore salarié chez ID.
Or, les lois et jurisprudences concernant les programmeurs sont hallucinantes : dans un grand nombre de pays, tout ce qu’un programmeur fait, y compris pendant son temps libre chez lui est réputé appartenir à l’employeur. C’est d’ailleurs un problème majeur pour les contributeurs a des logiciels libres.
Dans le cas présent, l’ancien employeur de Carmack semble flairer le bon coup financier.
S’ensuivra un jeu de chat et de souris, l’un pour prouver le travail accompli pendant la période sous contrat, l’autre pour le nier.
Et le tout se terminera certainement par un arrangement à l’amiable, c’est à dire une transaction financière.
4322 commentaires
Le récap’ des tests : quelques pistes pour un PC compact
15/05/2014
Le 19/05/2014 à 19h 13
Le 19/05/2014 à 17h 44
Le 17/05/2014 à 19h 19
Le 17/05/2014 à 19h 17
Le 17/05/2014 à 18h 31
Le 17/05/2014 à 17h 49
Le 17/05/2014 à 07h 55
Le 16/05/2014 à 18h 05
Le 16/05/2014 à 17h 25
Le président de LDLC annonce l’ouverture de son « École » du numérique
15/05/2014
Le 19/05/2014 à 17h 12
Le 17/05/2014 à 20h 23
Le 15/05/2014 à 22h 59
Le 15/05/2014 à 22h 53
Le 15/05/2014 à 22h 39
Le 15/05/2014 à 17h 31
Le 15/05/2014 à 17h 26
Le 15/05/2014 à 17h 09
Le 15/05/2014 à 16h 25
Le 15/05/2014 à 16h 20
En France, il y a déjà tous les talents et les compétences qu’il faut en informatique.
Simplement, comme dans tous les domaines, la compétence et l’expertise se paye.
Et ça, c’est une chose que les patrons français ont encore du mal à comprendre.
Faute de débouché, les talents partent à l’étranger ou changent de métier.
A quoi bon investir dans la formation si nous ne sommes déjà pas capables de rentabiliser convenablement ceux qui ont été formés ?
Le récap’ des tests : équiper son PC pour le jeu
16/05/2014
Le 18/05/2014 à 16h 12
Le 17/05/2014 à 21h 24
Le 17/05/2014 à 21h 07
Le 17/05/2014 à 01h 04
Le 16/05/2014 à 23h 16
Mozilla jette l’éponge : Firefox gérera les DRM dès cette année
15/05/2014
Le 15/05/2014 à 16h 05
Relaxe d’un magasin d’informatique poursuivi pour avoir réinstallé Windows
14/05/2014
Le 14/05/2014 à 18h 56
Le 14/05/2014 à 18h 44
Towns, un premier cas d’école sur les risques des jeux en « Early Access »
08/05/2014
Le 10/05/2014 à 19h 46
Le 10/05/2014 à 01h 06
Le 09/05/2014 à 17h 45
Le 09/05/2014 à 16h 11
Le 09/05/2014 à 16h 03
Le 08/05/2014 à 16h 51
Le 08/05/2014 à 15h 49
A quoi reconnaît t’on que nous sommes en France ? Quand un sujet parle d’économie, la plupart des commentaires se trompent de direction.
Le fait que le programmeur ait fini en burnout sans pouvoir rémunérer un suppléant est d’abord très significatif du manque cruel de rentabilité du projet.
Le cas est classique : un homme seul qui fait le boulot d’une équipe, au bout de quelques mois il est cramé. Et quand en plus les finances ne suivent pas, c’est la fin.
Ce qu’il faut savoir, c’est que de nos jours, beaucoup de marchés ont tendance à devenir binaires : un produit est soit très rentable, soit pas du tout.
Internet n’a pas que des bons côtés. Les phénomènes de buzz tendent à concentrer le succès (et les finances) sur un faible nombre de produits, ce qui est catastrophique à tous points de vue.
ABP dédie une liste aux sites qui affichent un avertissement anti-Adblock
07/05/2014
Le 07/05/2014 à 20h 48
Personnellement, j’ai désactivé les Addblock & co.
Les sites ont besoin de vivre. Et la pub paye le contenu.
Si on refuse de voir la pub, il n’y aura pas d’autre alternative que de payer ou de se passer de contenu.
Il faut savoir ce que l’on veut.
Les gens ne vivent pas juste d’amour et d’eau fraîche.
Je pense qu’il vaudrait mieux se préoccuper des limites acceptables en matière de tracking.
Le récap des tests : quelques idées originales pour votre prochain PC
06/05/2014
Le 07/05/2014 à 20h 35
Asus PB287Q : un écran 4K de 28 pouces avec DP, HDMI et MHL pour 699 €
01/05/2014
Le 05/05/2014 à 20h 10
Le 01/05/2014 à 20h 30
Le BASIC fête ses 110010 ans
02/05/2014
Le 05/05/2014 à 20h 06
Le 03/05/2014 à 19h 53
Le 03/05/2014 à 19h 15
Le 03/05/2014 à 17h 52
Hardware.fr fait à nouveau le point sur les taux de retour des composants PC
05/05/2014
Le 05/05/2014 à 19h 46
Le 05/05/2014 à 18h 06
Le 05/05/2014 à 17h 50
Le 05/05/2014 à 17h 28
Contrairement à ce que certains affirment, ces statistiques ont une signification.
Bien sûr, il est évident qu’elles ne disent pas tout. La cause de la panne serait riche d’enseignement. Et tous les cas sont particuliers.
Donc tout est question de savoir les interpréter au cas par cas.
Par exemple, le minage explique certainement le fort taux de panne du côté des GPU AMD : il suffit de parcourir les forums dédiés pour constater le nombre de newbies qui se lancent dans le minage sans aucune connaissances techniques en faisant absolument n’importe quoi (alors que le minage c’est particulièrement exigeant avec le matos) : Il est trop courant de voir des gars qui mettent de forts overclockings en H24 sans même prendre la précaution d’undervolter ni de mesurer les températures des VRM… sur des cartes d’entrée de gamme. Et qui se plaignent après de voir leurs cartes griller comme des mouches. " />
Cela étant dit, cela nous montre aussi les cartes qui sont plus solides que les autres à ce petit jeu. Et c’est riche d’enseignement, même s’il y a un biais statistiques évident par rapport à la gamme de prix : On peut imaginer que les mineurs achètent plus rarement les modèles de cartes les plus onéreux.
Autre problème par rapport à ces statistiques, elles ne montrent que la période ou le revendeur reprends la majorité des produits. Donc ça n’est pas forcément significatif à long terme. Un exemple qui montre bien cela (mais qu’il faut également interpréter avec les nuances nécessaires) :
http://www.presse-citron.net/la-fiabilite-des-disques-durs-passee-au-crible/
Bref, les taux de panne à court, moyen et long terme ne sont pas forcément en corrélation.
Et l’on peut évidement se poser la question des différences entre les politiques de garanties des constructeurs : quand un constructeur assure le SAV en direct, le revendeur n’est pas forcément informé d’un produit défectueux.
Bref, il serait intéressant de connaître le détail des causes de pannes et surtout, s’il s’agit de défauts qui affectent l’ensemble de la production ou au contraire seulement quelques exemplaires isolés. Dans un cas, les utilisateurs qui utilisent beaucoup leur matos pourraient rencontrer plus rapidement un problème qui peut affecter la plupart des exemplaires dans le temps. Ou au contraire des défauts de production limités qui même avec un taux élevés peuvent laisser les exemplaires non touchés exempts de tout problème.
480ème édition des LIDD : Liens Idiots Du Dimanche
03/05/2014
Le 04/05/2014 à 18h 19
John Carmack VS ZeniMax : la paternité du code de l’Oculus Rift contestée
02/05/2014
Le 02/05/2014 à 18h 44
Le problème, c’est qu’on subodore que Carmack a commencé à travailler pour l’Occulus VR alors qu’il était encore salarié chez ID.
Or, les lois et jurisprudences concernant les programmeurs sont hallucinantes : dans un grand nombre de pays, tout ce qu’un programmeur fait, y compris pendant son temps libre chez lui est réputé appartenir à l’employeur. C’est d’ailleurs un problème majeur pour les contributeurs a des logiciels libres.
Dans le cas présent, l’ancien employeur de Carmack semble flairer le bon coup financier.
S’ensuivra un jeu de chat et de souris, l’un pour prouver le travail accompli pendant la période sous contrat, l’autre pour le nier.
Et le tout se terminera certainement par un arrangement à l’amiable, c’est à dire une transaction financière.
Next INpact Emploi : le récapitulatif des dernières offres, semaine 18
01/05/2014
Le 01/05/2014 à 23h 05
Le 01/05/2014 à 20h 09