votre avatar

sr17

est avec nous depuis le 26 décembre 2005 ❤️

4322 commentaires

Le 28/11/2016 à 04h 52







picatrix a écrit :



Notaire au moins c’est un vrai métier pour lequel on ne peut pas s’autoproclamer comme le machin-designer qui n’a parfois même pas le bac. Un notaire est un officier ministériel qui a obtenu des diplômes et acheté (cher) une étude.

Pourtant les tarifs des notaires viennent de baisser de 2.5%.

En fait ce qu’on appelle “frais de notaire” comprennent 80% de taxes (état, collectivités locales, TVA …)  10% de débours (conservateur des hypothèques, géomètre, cadastre …) et 10% seulement d’émoluments.

Donc quand on “paye” 10k€ au notaire, il n’en touche que moins d’un mois de SMIC en réalité. En cas de faute dans son travail sa responsabilité pénale est lourdement engagée.

 

J’aimerai beaucoup savoir ce qu’on peut espérer avoir comme site web complet “codé” (et non pas “coder” : franchement ce genre de faute sur un site web ça craint un max pourtant on ne mettra pas en prison un web-designer analphabète ) de A à Z pour ce prix là ?



Si jamais les émoluments du notaires sont plus intéressants, le web-designer frustré peut toujours se lancer dans des études (longues) pour devenir notaire et se faire plein de fric à son tour … enfin s’il en est intellectuellement capable, ce dont je doute.



je précise que je ne suis pas notaire et que je n’ai rien à voir de près ou de loin avec cette profession.

je ne suis pas web-designer non plus, il ne faut quand même pas déconner. <img data-src=" />







L’hypocrisie de notre société c’est qu’on fait croire que les études seraient à la portée de tous a la seule condition d’en avoir les capacités et le courage.



En pratique, les études et la réussite dépendent beaucoup plus de l’environnement familial que de tout autre facteur.



Mais le problème, c’est qu’on est passé en quelques décennies d’un monde ou le diplôme apportait un meilleur job à un monde ou il conditionne le droit à une vie décente. Et cela évolue encore, de nos jours le diplôme ne suffit plus, il faut un profil bien formaté et sans le moindre défaut…


Le 27/11/2016 à 17h 37







SirRichter57 a écrit :



Bonjour messieurs, mesdames



Je n ai qu une question, essentielle d après moi, combien factureriez vous un site Web complet, coder de A à Z, avec un travail de référencement réel, et un design moderne, couplé à une ergonomie interactive de 2016.



Très bien, et désormais, combien selon vous, vaut le travail d un notaire.



Bien à vous.







Avec le nombre de webdesigner qui ont une mentalité d’esclave, c’est tout juste si certains ne te payent pas pour que tu les fasse travailler <img data-src=" />


Le 27/11/2016 à 17h 31







Tkop a écrit :



En fait je pense que dans le secteur de l’informatique, il y a une grande différence entre les ingénieurs développeurs et les autres personnes qui travaillent dans l’informatique.



Ceux qui ne sont pas ingénieurs sont en sur-nombre et mal payés.

 

Aujourd’hui trouver un bon développeur ingénieur ou même un trés bon epitech, c’est pas facile. Et du coup les développeurs sont eux plutôt bien payé.

Dans l’entreprise dans laquelle je travaille, malgré le salaire élevé proposé au débutant, c’est trés dure de recruter des développeurs.







C’est plus compliqué.



Pour être compétitive, une entreprise fixe toujours ses critères d’embauche sur le profil qu’elle estime au top de ce qu’elle pourrait trouver et avec le salaire minimum qu’elle peut faire accepter. Le but, c’est toujours de recruter les meilleurs candidats possible pour être meilleur que la concurrence.



Quel que soit le nombre de candidats sur le marché, ce profil est par définition toujours rare. Parce que plus il y a de candidats sur le marché, plus les entreprises deviennent exigeantes.



Au passage, c’est amusant d’entendre parler de salaire élevé alors que selon les statistiques les ingénieurs en informatique sont les plus mal payés de tous les ingénieurs, tout domaine confondu.



On pourrait même parler de double arnaque parce que c’est un métier ou l’age est très mal vu. Il faudra se reconvertir relativement jeune…





Le 26/11/2016 à 19h 49







picatrix a écrit :





 Mais c’est mal parti avec le candidat en tête de primaire de droite qui veut “casser” les négociations collectives entre partenaires sociaux pour les remplacer par des marchandages locaux (genre bosser 48h (il a avancé ce chiffre) payées 35h (“pourquoi les payer plus”) … ça promet du monde dans la rue).







Si on en est la c’est aussi parce que les classes sociales exploitées, ce sont des idiots qui gobent toutes les conneries qu’on leur raconte.



Il suffit de voir avec quelle facilité les classes dominantes ont amené les pauvres a taper sur d’autres pauvres quand ils ont l’impression qu’ils en chient moins qu’eux.


Le 26/11/2016 à 19h 18







ProFesseur Onizuka a écrit :



Si il manquait tant de gens dans l’informatique, les salaires s’envoleraient automatiquement dans ce secteur, hors ils sont plutôt à la baisse. Donc il y a un mensonge quelque par dans l’énoncé: les SSII, soutenues par l’état comme rappelé dans l’article, qui proposent des offres déjà occupées par quelqu’un d’autre mais qui sera bientôt viré (c’est leur modèle économique) <img data-src=" />



Et il suffit de regarder IBM France licencier massivement depuis les années 90, pour comprendre que le numérique en France c’est le passé, le travail est déjà délocalisé ou automatisé <img data-src=" />







Il y a un syndicat d’informaticiens qui s’appelle le Munci qui explique bien tout cela chiffre à l’appui.



La vraie réalité, c’est que l’informatique est un domaine complètement saturé.



Comme tu le souligne, l’effondrement des salaires et des tarifs de prestations est la preuve absolue que la soit disant pénurie est un mensonge colporté par les syndicats patronaux.



Faire croire à un manque pour convaincre l’état de former toujours plus de gens, c’est s’assurer un flux de main d’oeuvre abondante, ce qui augmente la concurrence et fait baisser les salaires.



Dans quelques années, le secteur deviendra complètement sinistré. Des tarifs trop bas entraîneront des faillites en série dans les plus petites entreprises, les arnaques vont se multiplier, des informaticiens quitteront le métier et toutes ces coûteuses formations seront juste une montagne d’argent jeté par les fenêtres…


Le 27/11/2016 à 22h 47







Alkatrazze a écrit :



Parce que si tu fais un code clair avec des boucles qui ne font pas 36 choses en même temps dans le for (; ;), alors il y a de fortes chances qu’il soit moins rapide.

 

Parce que si tu optimises l’efficacité d’un logiciel pour une machine donnée (processeur, mémoire, …), alors il n’est moins portable. 



Un exemple



On m’a toujours expliqué que i++ était plus rapide que i = i+1. 

Ce qui est souvent faux. 

Le C a été écrit pour les ordinateurs PDP dont le processeur possède l’opérateur d’auto-incrémentation. Donc i++ en C donne une et une seule instruction en assembleur sur PDP. Mais ce n’est pas le cas sur tous les ordis.  Nous avions fait des tests. Selon le processeur et même selon le compilateur utilisé, une boucle de 1 million de i=i+1 peut être plus rapide qu’une boucle de 1 million de i++.

Ou l’inverse.



Donc, si tu veux optimiser la vitesse d’exécution, tu choisiras la syntaxe la plus rapide, même si elle est moins lisible (je te l’accorde, sur l’exemple i++ versus i=i+1, c’est un peu trivial). Sinon, si tu veux un code facilement maintenable, tu éviteras  les trucs illisibles qui tournent très vite.



Autre exemple : quelle fonction est la plus lisible, donc la plus facile à maintenir ?





 void strcpy(char destination, char source){ int iCompteur; for(iCompteur=0; iCompteur&lt;=strlen(source); iCompteur++) { destination[iCompteur]=source[iCompteur]; }}





 void strcpy(char CH1, char CH2){ while (CH1++ = CH2++) ;}







Il faut savoir que d’une manière générale, les optimisations les plus efficaces se trouvent d’abord dans l’algorithmique, l’organisation des données et l’architecture du programme. Ces optimisations, en plus d’être très rentables ne varient que peu en fonction du compilateur.



Le type d’optimisation dont tu parle est rentables dans des portions de code bien délimitées. Donc si elles sont utilisées ou il le faut, cela n’affectera pas la lisibilité globale du programme.





Autre exemple : quelle fonction est la plus lisible, donc la plus facile à maintenir ?



 void strcpy(char destination, char source){ int iCompteur; for(iCompteur=0; iCompteur&lt;=strlen(source); iCompteur++) { destination[iCompteur]=source[iCompteur]; }}





 void strcpy(char CH1, char CH2){ while (CH1++ = CH2++) ;}





Personnellement, je dirais que la seconde est la plus lisible. Et c’est aussi la plus rapide.

Mais si on préfère la première version, il suffira juste d’enlever le strlen de la boucle pour la rendre bien meilleure.



Si je réponds au sens de ce que tu voulais dire : Quand on doit choisir entre un code optimisé et un code lisible, quel choix doit t’on faire ?



Pour ma part, je dirais que la bonne réponse, c’est que tout dépends du contexte. Si on écrit une fonction de bibliothèque tel que strcpy qui peut être très utilisée et réutilisée, donc qui peut influer sur les performance de nombreux programmes pendant des années et dont on regarde peu souvent le code, je dirais qu’il faut optimiser à mort sans se soucier de la lisibilité.



A l’inverse, dans quand cela n’influe pas de manière significative sur les performances du logiciel, on choisira plutôt la lisibilité.





Enfin tu as l’air de penser que tous les développeurs sont talentueux. Désolé, mais dans une boîte, tu bosses avec les développeurs que l’on te donne. Certains sont talentueux, d’autres non. Et ça te sert à quoi un code développé par un petit génie qui devient difficile à maintenir parce que les mecs qui reprennent le code sont moins talentueux ?





Demande toi pourquoi les entreprises se retrouvent avec des programmeurs aussi médiocres.



Parce qu’un programmeur qui sait bien coder, optimiser et faire du code lisible, ce n’est pas seulement une question de formation, c’est aussi une question d’expérience.



La vérité, c’est que tant qu’un programmeur n’en aura pas chié à relire son propre code mal écrit 5 ans avant, il ne comprendra pas ce qu’est un code peu lisible.



Le problème du diplôme actuellement, c’est que l’informatique n’est abordée que bien trop tard. Les soit disant méthodes ne compensent pas l’énorme manque d’expérience.



Pour faire de programmeurs talentueux, il faudrait commencer la formation à la fin de l’école primaire.





Lorsque tu vas présenter un devis à un client qui est 2 fois plus cher et que tu lui expliques que c’est parce que tes gars font faire un travail de très bonne qualité, c’est effectivement plus satisfaisant pour toi. Sauf que si tous les autres font plus vite et moins cher, peut-être que dans 10 ans, le client se dira qu’il aurait du te choisir. En attendant, tu n’auras rien rentré en portefeuille et tu seras mort.



Désolé, mais il n’y a pas de secteur de luxe dans le domaine du développement informatique : le mec, il peut peut-être frimer avec sa Mercedes qui coûte 10 fois plus cher qu’une Lada. J’en ai jamais vu frimer en t’expliquant qu’ils ont fait développer leur soft de comptabilité chez un petit artisan, ma chère, il fait tout à la main dans les meilleurs matériaux.





C’est un excellent constat.



Mais peut être faudrait t’il se demander pourquoi le logiciel personnalisé en informatique est l’un des seul domaine ou il n’existe de marché que pour l’entrée de gamme.



D’ailleurs, le haut de gamme de la programmation existe, mais dans le marché du progiciel.





Que de préjugés !



Sinon, les entreprises investissent dans la formation pour pouvoir continuer à exister en gagnant de nouveaux marchés, en utilisant de nouvelles technologies qui permettent d’accroître la productivité. Et puis aussi, parce que c’est obligatoire.





Il faut être réaliste, la formation en entreprise, c’est quasiment rien.



Une formation continue sérieuse en informatique, ça demanderait d’y consacrer au minimum 30% du temps de travail.



Dans la réalité, il y a deux catégories d’informaticiens, ceux qui se mettent à niveau le soir et les week end… et qui du coup se font complètement entuber.



Et puis les autres, ceux qui ne sacrifient pas leur vie de famille et qui finiront inéluctablement chez pôle emploi un jour…





42 ???? La super arnaque ??? Les mecs à qui ont fait croire que s’ils apprennent tout seul à pisser de la ligne, alors ils obtiendront des postes de chef de projets ?





Moi je n’ai pas du tout compris ça comme ça…



Mais il est évident que développer son talent pour être capable de créer la super invention du futur et faire le cursus bien formaté pour décrocher le super poste dans une multinationale, ça n’est pas tout à fait le même trip.





Le reste, ce n’est que du baratin qui montre une assez profonde méconnaissance des enseignements dans les écoles d’informatique.





Même si cela change énormément en fonction des écoles et des époques et qu’il est difficile de faire des généralités, il est quand même très facile de constater ce que les gens y ont appris… et ce qu’ils n’y ont pas appris. <img data-src=" />





Alors, ton autodidacte, OK, il trouvera une PME qui l’embauchera pour monter des sites Web PHP/MySQL (et encore de moins en moins, à cause de Wordpress ou Joomla), mais il n’a aucune chance de trouver un boulot pour concevoir ou réaliser le logiciel de conduite de vol du prochain Airbus.[quote]



Pas faux, tout particulièrement en France.



Mais c’est oublier qu’il existe aussi de nombreux domaines qui sont très friands d’autodidactes.



Particulièrement quand il y a de l’innovation en jeu, beaucoup échangeraient une une armée d’exécutants formatés contre un seul gars talentueux qui sait “penser autrement”. <img data-src=" />



[quote]Parce que là, désolé, mais il faut des mecs qui savent, qui ont appris et qui ont appris à apprendre.





Bien au contraire, ce qu’on recherche dans ce contexte, ce n’est pas des talents, mais qu’il y ait un maximum de bouts de papier sur la table pour que toute la chaîne hiérarchique puisse se couvrir en cas de problème.



Dans une grande entreprise, l’enjeu d’une carrière n’est pas d’être brillant, mais de prendre le moins de risque possible en se couvrant sur un maximum d’angle d’attaques.



Dans un grand groupe, on ne recherche pas le talent, on mesure le degré de conformité à un profil fixé…


Le 25/11/2016 à 18h 46







Alkatrazze a écrit :



J’ai eu une fois un programmeur “génial”. Son code était fantastique, une merveille d’ingéniosité et de trucs fantastiques (il arrivait même à faire des multiplications de pointeurs). Mais le jour où il s’est barré, il a fallu tout recommencer à zéro, personne ne comprenait rien.







Un bon programmeur, c’est justement quelqu’un qui sait éviter la débauche de “trucs et astuces” quand ils ne sont pas nécessaires à la qualité du programme. Et c’est autant valable pour les “trucs” de bas niveau que pour l’abstraction de haut niveau (plats de nouille de Templates par exemple).



Penser qu’un code optimisé est forcément illisible est une erreur. Un programmeur talentueux sait faire la juste mesure des deux simultanément.





Les facteurs de qualité d’un logiciel, ce n’est pas forcément l’efficacité. Cela peut être la lisibilité, la maintenabilité, la faculté d’être interfaçable, … Voir par exemple les facteurs et critères de McCall.





Même s’il est évident qu’il y a parfois des choix à faire, pourquoi penser que toutes ces considérations seraient forcément antinomiques ?





Et quand tu travailles en entreprise, ce que va demander le client le plus souvent, c’est la pérennité : il veut s’assurer que l’investissement important qu’il fait (notamment financier), ça va durer plusieurs années. Donc, c’est ton rôle, à toi fournisseur, de tout mettre en oeuvre pour assurer cette pérennité. Et si ça passe par des développeurs qui font du code bien formatté, eh bien tant mieux.





La dessus, je ne suis pas d’accord.



Les méthodes de travail qui donnent l’illusion de pouvoir lourder facilement les programmeurs ne sont qu’une fuite en avant. Elles ne font que renforcer la pathologie d’un secteur d’activité profondément malade. Mais cela ne fonctionne pas en pratique. Quand il y a du turn over, il n’y a pas de qualité.



Quand aux clients, ils veulent le beurre et l’argent du beurre : pouvoir mettre une pléthore d’entreprises en concurrence, choisir le moins cher, imposer leurs conditions. Et après, ils s’étonnent d’avoir récolté un travail de merde, que le gars sous payé qui a écrit leur programme n’est plus la 6 mois après ?



Il y a un proverbe qui dit “If you pay peanuts, you get monkeys”.



Ceux qui veulent un travail de qualité réalisé par des programmeurs expérimenté et qui est pérenne dans le temps, c’est simple, ils payent ce qu’il faut pour faire réaliser leur travail par des entreprises qui auront les moyens financiers nécessaires pour maintenir leurs employés a leur poste sur le long terme.



On aura fait un grand pas quand la diarrhée de commerciaux qui sortent des écoles de commerce chaque année auront compris qu’en informatique, c’est comme dans les autres secteurs, on n’obtient pas une Mercedes pour le prix d’une Lada par la magie du dieu marché et de la négociation.





Concernant les autodidactes qui apprennent à apprendre versus les diplômés qui n’évoluent plus : il s’agit d’une vision très caricaturale donc fausse. Des autodidactes qui apprennent bêtement dans des livres, c’est aussi courant que des étudiants qui apprennent bêtement leurs cours. Des autodidactes qui s’endorment sur leurs lauriers une fois qu’ils sont embauchés et des diplômés qui continuent à apprendre, cela existe. Heureusement.





C’est oublier un peu vite qu’un autodidacte passe par un parcours bien plus difficile ou il n’a pas la facilité d’un cursus scolaire pour guider son apprentissage et un parcours professionnel ou il doit être bien meilleur que la moyenne pour être reconnu.



Quand à s’endormir sur ses lauriers, c’est objectivement bien plus facile avec un diplôme en poche…





D’autant plus que si une entreprise veut continuer à vivre dans le domaine de l’informatique, elle a intérêt à prévoir de la veille technologique et de la formation continue.





Pourquoi veux-tu que les entreprises investissent dans la formation ?



Dans l’informatique, les entreprises veulent des programmeurs interchangeables pour pouvoir les lourder quand ils ne sont plus à jour et embaucher d’autres qui sortent de formation… payée par le contribuable.





Ta vision de l’enseignement est assez éloignée de la réalité. Les étudiants dans les masters ou les écoles d’ingénieur apprennent à apprendre.





Par principe, la ou il y a une formation et des profs qui t’inculquent un savoir, tu n’est pas dans un cadre ou tu devient le directeur de ta propre formation. Apprendre à apprendre ne s’apprends pas avec un cadre comme celui d’une école.

D’ailleurs, on voit bien que la majorité des diplômés n’ont pas le moindre regard critique sur ce qu’ils ont appris, sur les outils qu’ils utilisent. Ce sont leurs profs qui ont fait ces choix pour eux et cela se sent…



Ce n’est d’ailleurs pas pour rien qu’on voit émerger de nouveaux concepts d’école comme “42” ou l’on cherche ostensiblement à minimiser la directivité du cadre pour favoriser l’auto apprentissage.





Et leur cursus se termine par un stage où ils expliquent comment ils ont mis leurs connaissances en oeuvre. Et ça, ça ne date pas d’hier.





Ce qui n’a rien à voir avec le fait d’être totalement livré à soi même pour acquérir des connaissances.



Le 25/11/2016 à 02h 02







joma74fr a écrit :



Je suis d’accord avec ta conclusion. C’est ce que j’appellerais la dictature du diplôme en France ou le brevet à vie de connaissances certifiées. On a tendance à oublier les mérites de l’expérience.



Toutefois, je pense que c’est le travail en équipe qui permet l’interdisciplinarité. Et cette façon de travailler à plusieurs, en tenant compte des contraintes de ses collaborateurs travaillant dans d’autres disciplines, n’est pas vraiment développé en France. On commence un peu à y réfléchir actuellement. Un bel exemple de pluridisciplinarité est le cas des Maisons médicales dans lesquels plusieurs professionnels de santé se regroupent afin de traiter leurs patients d’une manière globale et conjointe (c’est aussi une façon de mutualiser les dépenses d’infrastructures et de moyens logistiques).







Le travail en équipe est effectivement un bon moyen de permettre l’interdisciplinarité. Mais comme tu dit, en France nous n’avons pas cette culture. Quand nous créons des équipes, c’est des gens issus des mêmes cursus. Le management voit les équipes hétérogènes comme une source de problème.



Dans certains domaines, c’est même pire que ça. Le premier réflexe d’un responsable issu d’une grande école est le plus souvent de s’entourer de personnes issus des mêmes cursus quand ce n’est pas de la même promotion…



C’est un peu ce syndrome qui arrive à toutes nos “élites” et particulièrement a la classe politique. A force de tourner en vase close entre eux, ils se coupent des réalités du monde des citoyens de base…


Le 25/11/2016 à 01h 32







Faith a écrit :



Tu es “victime” (c’est pas très grave, hein) d’un biais dû à ta spécialisation.







L’assembleur n’est pour moi qu’une connaissance parmi d’autres. J’ai un profil plutôt polyvalent.



Certes, il peut m’arriver de faire de l’assembleur à l’occasion. Mais moins que d’écrire du PHP…





99% des développeurs n’ont aucun intérêt à se pencher sur le code assembleur: de nos jours même la maitrise d’un langage comme le C n’est plus requise, malgré toutes les bonnes raisons qui justifient la connaissance d’un tel langage “pas trop haut niveau”.





Vous changerez d’opinion un jour.



Il peut être tentant de réduire strictement la formation des informaticiens aux seules langage à la mode du moment dans les SS2I. On peut également décréter qu’on se moque de leur aptitude à produire du code de qualité sous prétexte que beaucoup de SS2I n’y attachent pas d’importance.



L’inconvénient de cette philosophie de formation, en plus d’encourager l’industrie de la basse qualité, c’est de transformer les hommes en denrée périssables difficiles à reconvertir.



Tout informaticien a des chances de connaitre un jour dans sa vie ou les DRH/recruteurs décideront qu’il est désormais “hors profil” selon la mode du management du moment (qui dit que l’age, c’est le mal).



C’est ce jour la, qu’un homme remercie le fait d’avoir acquis une vraie culture générale d’un domaine et non pas juste une spécialisation ne couvrant qu’une seule forme de demande.





Et tous les développeurs Java, comment font-ils pour se pencher sur l’assembleur: leur code n’en génère pas… enfin, pas vraiment.





Le compilateur Java génère du bytecode qui suivant les machines virtuelles peut être ensuite interprété… ou transformé à la volée en langage machine.

Dans ce cas de figure, l’intérêt se reporte logiquement sur les machines virtuelles. La façon dont elles interprètent le code ou comment elles le transforment en langage machine.

D’ailleurs, même les purs compilateurs sont aussi un sujet hautement instructif pour un informaticien.





Tu me permettras de ne pas être d’accord (et pourtant je viens d’un école d’ingé très orientée technique.





Pour avoir discuté un jour de ce sujet avec deux jeunes programmeurs issus de écoles différentes, les deux m’ont confirmé avoir fait de l’assembleur.



Que certaines écoles ne le fassent pas ne me surprends pas non plus.



De tout manière, les écoles n’apprennent pas tout. Mais je vous conseille de compléter votre formation sur ce point. Vous comprendrez avec le temps tout ce que ça vous apportera.


Le 23/11/2016 à 21h 15







joma74fr a écrit :



L’idéal est un diplômé qui vulgarise son savoir et qui n’hésite pas à franchir les frontières de sa discipline : en informatique, considérer le design ou l’ergonomie comme essentiels peut permettre de réaliser des produits très vendables (les Californiens sont des experts de la transdisciplinarité, pluridisciplinarité et interdisciplinarité).







Sauf que dépasser la discipline unique est un exercice beaucoup plus évident pour un autodidacte que pour un diplômé.



Si l’on peut aborder une discipline unique en quelques années d’étude, devenir réellement multi-disciplinaire est l’affaire d’une vie entière. C’est après la fin des études que ça se joue. Celui qui gagne à ce jeu, c’est celui qui a le mieux appris à apprendre en dehors de tout cadre scolaire…



A noter d’ailleurs que l’obsession française pour le diplôme a rendu les compétences multi disciplinaires relativement rares dans notre pays…


Le 23/11/2016 à 20h 42







Faith a écrit :



Autant je suis d’accord avec le post d’après, autant je ne peut qu’être en désaccord avec celui ci.

 Connaitre l’assembleur n’a d’utilité que pour ceux qui l’utilisent réellement, ou à titre de curiosité.



Un informaticien n’a pas besoin de connaitre ce langage, pas plus que le programmeur en ASM n’a besoin de connaitre la microélectronique ni la physique quantique qui lui est nécessaire pour exister.

 

L’ASM est amusant à manipuler quand on est curieux, mais n’apporte rien à 99,99% des informaticiens.

Et je te parle en tant qu’autodidacte également (avec l’apprentissage du basic à 7 ans, avec les numéros de lignes, les caractères graphiques codés sur 8 nombres, et tout, et tout)







Je ne suis VRAIMENT pas d’accord.



En cours de physique à l’école nous apprenons quantités de connaissances sur la nature microscopique de la matière. Par exemple les atomes, la base des réactions chimiques, les électrons et le courant électrique.

Comme pour l’assembleur, il y a une bonne raison à cela. Et l’on retrouve des exemples comparables dans presque toutes les matières.



Pourquoi la maîtrise de l’assembleur et du fonctionnement de bas niveau des machines est t’elle primordiale en informatique ? Tout simplement parce que les connaissances de “bas niveau” ont des conséquences très importantes sur la qualité de codage à haut niveau.



Le cas typique, je l’ai rencontré à maintes reprises chez des programmeurs qui écrivent du code de haut niveau sans avoir la moindre idée de ce que cela engendrait derrière. En pratique, cette ignorance aboutit à écrire du code extrêmement mal optimisé, voir des monstruosités… sans s’en rendre compte.



Pendant les études, le fait d’avoir fait de l’assembleur permet de comprendre de manière assez facile des notions sur lesquelles ceux qui n’en ont pas fait galèrent : notion de pointeurs, d’accès mémoire, d’espace d’adressage, de cycle machine, de driver, de pilotage de circuits, et j’en passe…



Pire, sans maîtrise de l’assembleur, il est impossible de comprendre vraiment les différences entre les langages de programmations. Qu’est ce qui fait la force ou la faiblesse de tel ou tel langage pour tel ou tel usage ? Quand on sait que de nombreuses différences entre les langages se cachent dans des détails de bas niveau, on comprends toute l’importance de la maîtrise de l’assembleur.



Enfin, il est parfois très utile de regarder ce qu’un compilateur va écrire comme code assembleur en fonction du code source. C’est à la fois très instructif, ça aide à optimiser, mais aussi, cela permet parfois de comprendre certains comportements du langage, voir de mettre en évidence certains bugs.



Bref, les conséquences de l’apprentissage de l’assembleur sont innombrables. Sachant que contrairement aux légendes urbaines, son apprentissage est plutôt facile, les raisons de vouloir échapper à cet enseignement m’échappent.



D’ailleurs, les bonnes écoles d’informatique ne s’y trompent pas, l’assembleur y est bel et bien enseigné. <img data-src=" />


Le 22/11/2016 à 18h 16







Alkatrazze a écrit :





Tout ce qu’on peut reprocher aux journalistes des télés et radios (et ce, pas seulement envers le FN), c’est de ne pas suivre leurs questions : souvent ils posent une question, le politique répond une connerie ou mieux encore répond à côté et le journaliste passe à la question suivante. Il manque de journalistes qui vont au bout des questions, qui poussent les interviewés dans leurs limites.







Il manque aussi des journalistes qui posent des questions pertinentes plutôt que des questions connes juste pour faire de l’audimat à bon compte.



Le 22/11/2016 à 17h 54







Alkatrazze a écrit :



Moi à douze ans, je regardais un feuilleton médical et j’ai lu un bouquin de secourisme. Ce n’est pas pour ça que je me proclame médecin ou infirmier.



Sérieusement, des autodidactes en informatique, j’en ai vu passer beaucoup : zero méthode, une documentation inexistante ou pourrie, du code impossible à maintenir, des réinventages de la roue, … Il faut peut-être considérer de temps en temps que l’informatique, comme tous les métiers, cela s’apprend. Et cela même si n’importe qui peut apprendre le PHP ou les macros Excel sur le tas et croire qu’il fait de l’informatique.







En même temps, un autodidacte te dirait qu’il ne comprends pas pourquoi ceux qui sortent de l’école appliquent bêtement leurs méthodes apprises sans aucun discernement. Non seulement ils écrivent du code très scolaire, naïf, peu performant et mal analysé, mais ils ne réalisent même pas qu’une bonne partie de leurs méthodologies n’ont pour seul but que de les rendre très facilement interchangeables… et remplaçables avant tout autre considération de qualité de codage.



Il ne faut pas confondre le fait d’apprendre à pisser du code bien formaté dans les critères de productivité des SS2I et le fait de savoir réaliser de bons programmes. Ce sont deux choses très différentes.



Enfin, tu dit que le métier d’informaticien s’apprends, ce qui est vrai. Sauf que c’est un domaine ou les choses évoluent en permanence. Les connaissances apprises à l’école sont insuffisantes en tant que tel, sans compter tout ce qui devient rapidement obsolète. L’autodidacte a le redoutable avantage d’avoir appris quelque chose de bien plus précieux que de simples connaissances : apprendre à apprendre. Il n’a pas été formaté, mais il s’est vraiment approprié la programmation et la culture de l’informatique. Avec le temps, c’est un avantage déterminant. Les connaissances de l’autodidacte évoluent avec le temps. Et de nos jour, il n’est nul secret qui ne se trouve dans les bouquins…



Ce n’est d’ailleurs pas un hasard si de nombreuses écoles évoluent dans leur enseignement pour tenter de se rapprocher de celui des autodidactes.



Les meilleures écoles, celles ou les parents de la petite minorité la plus aisé du monde mettent leurs enfants proposent désormais des enseignements inspirés du cursus des autodidactes. Leur crédo : fabriquer des gens brillants, même s’ils sont imparfaits plutôt que des esprits formatés.





L’école, le collège et le lycée ne sont pas là pour apprendre un métier, mais pour apprendre des connaissances de base et apprendre à raisonner. Donc l’apprentissage de l’algorithmique (il y a plein de logiciels sympas pour ça), l’apprentissage de la culture numérique, l’apprentissage de la protection de la vie privée, l’apprentissage d’outils de base (traitement de texte-dactylographie, tableur), l’apprentissage de la lecture critique des infos sur le Net et leur utilisation, … tout ça, ça doit entrer dans le cadre de ce que les enfants/ados doivent au minimum connaître en informatique.





Sauf qu’il ne sers absolument à rien d’enseigner tel quel des choses que les gens ne sont pas en mesure de comprendre par eux même. C’est du temps perdu, ça n’imprègne pas les esprits.



Un bon enseignement en matière de nouvelle technologie, c’est de donner les clés de la compréhension de cet univers. Il faut apprendre à extrapoler plutôt qu’apprendre par cœur.



Apprendre à apprendre plutôt que de formater les esprits.


Le 22/11/2016 à 16h 52







gokudomatic a écrit :



Ton erreur, c’est de croire qu’il faut forcément apprendre les anciennes technologies pour comprendre le fonctionnement des languages modernes. Selon ton principe, il faudrait d’abords apprendre à utiliser des cartes perforées avant de faire une requête NoSQL de graph.

L’assembleur est un language basic mais très proche de la machine. Le fait que ce soit proche de la machine n’a pas d’importance si c’est seulement pour apprendre les mécanismes de l’assembleur. Car n’importe quel language moderne un tant soit peu procédural peut aussi le faire. Et avec ça, on peut aussi bien apprendre les bases de programmation bas niveau qu’avec ton language chéri d’il y a 50 ans. Donc je persiste dans mes termes, vouloir apprendre la programmation avec l’assembleur dans le seul but de comprendre les bases, c’est du masochisme. C’est le phénomène psychologique du bizutage. L’ancien bizuté veut que les nouveaux souffrent aussi.







Il y a une grave erreur dans ton raisonnement, celle de croire que l’assembleur (ou plutôt langage machine) serait une ancienne technologie.



Même le plus récent de Arm ou des Core i7 ne comprends toujours et encore qu’un seul et unique langage : l’assembleur.



Tous les autres langages sans exception ne sont que des illusions qui sont traduites(je simplifie) en assembleur qui est de fait le seul langage exécutable par les processeurs.



L’assembleur n’est donc pas un langage parmi d’autres, c’est LE langage qui est a la base du fonctionnement de tous les autres.



Je ne suis pas d’accord avec ton affirmation selon laquelle des langages évolués permettraient d’aboutir au même résultat. Les langages évolués apportent de l’abstraction. Mais cette abstraction qui est leur avantage cache le fonctionnement de bas niveau. C’est un obstacle à la compréhension. Aucun autre langage que l’assembleur ne met en lumière autant les mécanismes de bas niveau.



Programmer en assembleur n’a rien de masochiste. Comme tu le souligne, il s’agit d’un langage relativement basique. Et l’assembleur de certains processeurs actuels n’a rien à voir avec les gymkhana qu’il fallait se taper avec les proco d’il y a 40 ans.



Enfin, le but n’est pas de programmer avec ça au quotidien, mais juste de comprendre la base du fonctionnement du matériel et des langages en complément avec un peu d’électronique.





C’est le phénomène psychologique du bizutage. L’ancien bizuté veut que les nouveaux souffrent aussi





Il y a aussi ceux qui veulent partager les choses qui leur ont apporté.



D’ailleurs, je vois mal pourquoi l’assembleur apporterait de la souffrance. Si c’est bien enseigné, c’est plutôt passionnant. En tout cas, c’est ainsi que je l’ai vécu.



Et le but, c’est justement d’éviter de galérer par la suite pendant des années pour comprendre certaines notions alors qu’elles deviennent très faciles à comprendre dès lors qu’on a touché à l’assembleur.



D’ailleurs, ce n’est pas un hasard si les bonnes écoles d’informatique le font.


Le 21/11/2016 à 20h 45







Winderly a écrit :



Tout ça sous couvert de changement par rapport aux politiques passées.







Alors qu’il s’agit d’une parfaite continuité avec les politiques mondialistes de ces dernières années visant à détruire les acquis sociaux.



C’est d’ailleurs une politique complètement inefficace sur le plan économique.



L’industrie du futur, elle reposera sur des robots et la technologie. Pas sur des humains qui font des heures supplémentaires.



L’homme est complètement inefficace face au robot. Même la main d’oeuvre chinoise sera durement concurrencée par les plans robotique qui commencent à être déployés.


Le 21/11/2016 à 19h 32







linconnu a écrit :



Je ne comprends pas comment ils peuvent avoir des votes en étant aussi incompétents !



Ils veulent tous supprimer des fonctionnaires et augmenter la durée du travail.



Il est évident que ça va aggraver le chômage.







Bah, le but c’est de déséquilibrer toujours plus le marché du travail en faveur de l’employeur, ce qui augmente la pression sur l’homme et profite aux classes dominantes.



Plus de chômeurs = plus de pression pour faire accepter les pires conditions et plus de pouvoir pour la classe dominante.



Parallèlement à cela, ils s’attaquent aux dispositifs sociaux comme le RSA et ont inventé une rhétorique et des mots péjoratifs (comme “assistanat”) de manière à pousser les classes dominées à combattre eux même leurs propres acquis sociaux.



Une société avec d’un côté des esclaves et de l’autre des seigneurs, c’est le rêve auquel croit cette droite.



Ce qui est amusant, c’est que la droite française veut nous vendre un programme libéral et mondialiste à l’heure même ou de grandes nations comme les USA en reviennent…


Le 21/11/2016 à 17h 40







CreaYouz a écrit :



Déjà je dirai surtout dans une optique d’éveil à des outils, savoir que ce qu’ils ont devant l’écran c’est pas juste des images et du texte, mais qu’il y a un fonctionnement derrière, une logique inhérente à chaque chose.



Ensuite, bah le but n’est absolument pas d’en faire des petits informaticiens rdy to work, mais apprendre de nouvelle choses c’est chouettes, et ca permet de rentrer de nouveaux concepts qu’il n’avait pas encore (déplacement dans l’espace (X , Y), automatisation d’actions, un peu d’anglais, le fonctionnement du code en générale avec ses propres règles comme avec une langue vivante, etc..) de manière ludique.



Puis les gamins adoraient apprendre des trucs que leur parents ne captaient pas du tout! <img data-src=" />



Son chemin à l’école, gérer son argent, et le marché du travail, je pense que c’était pas mon rôle! Mais avoir une base de fonctionnement de l’ordinateur, des logicielles, d’internet et compagnie et ne pas être juste ignare, mais se rendre compte que l’on peut être acteur de tout cela je trouve ça top.



Puis après mon passage, le clavier était très bien en main ! Et ils apprennent à réfléchir à des concepts, tester des solutions, passer à la validation pour savoir d’où viennent leurs bugs et les corriger. Comprendre qu’une erreur dans la logique bloque le fonctionnement de l’ensemble de ce que tu crées.



Enfin bref, plein de bonne choses, qui ne bloquent en rien l’apprentissage du reste, mais le complète.







Très bonnes idées.



Par contre, je suis très mitigée a propos de l’enseignement du langage python, un langage peu utilisé en dehors du monde de l’éducation.



L’écueil de l’initiation à la programmation, c’est qu’il faut parvenir à franchir le cap de l’appropriation en tant qu’outil pouvant apporter quelque chose de concret dans la vraie vie pour faire de vraies applications concrètes.



Si ce cap n’est pas franchi, l’intérêt d’un temps retombera. Puis, faute d’usage les connaissances acquises seront oubliées.



En d’autre terme, il faut absolument leur donner des usages utiles et concrets pendant la période ou ils vont se passionner pour ça. Sinon, ça sera un échec…


Le 21/11/2016 à 17h 30







kade a écrit :



Pour finir, maintenant on télécharge un jeu sur Steam et basta, ou on achète une PS4 chez Darty….

Le monde change.







Les machines ont évolué vers la facilité de consommation au détriment de la compréhension de l’informatique.



Il y a des bons côtés, mais malheureusement aussi de redoutables conséquences…



Par exemple, on peut mettre un jeune devant une tablette pendant 10 ans sans que celui ci n’évolue dans sa compréhension de l’informatique.





Bon il y a Arduino ou les RB Pi, mais tout est pré-mâché (je ne dis pas que c’est mal). Mais je ne connais pas bcp de mômes qui programment des Arduino…





Il faut voir ces outils comme quelque chose de positif, un retour vers plus de compréhension.



Pour autant, je reste effectivement sceptique à propos de l’arduino parce qu’il pèche aussi par l’obsession de “faciliter” au détriment de la compréhension. Par exemple, il met l’accent sur la programmation en langage évoluée et détourne de l’assembleur.





Le 21/11/2016 à 17h 16







seb2411 a écrit :



C’est bien de savoir faire de l’assembleur mais c’est clairement pas indispensable.







Vous commettez une grave erreur, celle de confondre l’usage et la compréhension.



Demandez vous pourquoi ceux qui se spécialisent dans la linguistique apprennent le latin et le grec ancien alors qu’aucune de ces deux langues n’est plus parlée de nos jours.



L’assembleur, on s’en sers effectivement rarement. Mais si on ne l’enseigne pas, c’est toute la chaîne de la compréhension qui est rompue.



Dans TOUTES les matière, y compris les maths et la physique on enseigne quantité de choses qui ne vous serviront jamais en pratique et dont la seule utilité, c’est de rendre cohérent l’ensemble de l’apprentissage d’une matière.



On pourrait croire que tout ce qui ne sers pas (ou rarement) n’est pas indispensable. C’est une erreur.


Le 21/11/2016 à 16h 47







kade a écrit :



J’ai appris tout seul l’assembleur à 12 ans. Pas besoin de prof, c’est une question d’intérêt personnel.

Et bien avant, je jouais avec des transistors et des NE555.







Je confirme qu’a une époque, on trouvait beaucoup de jeunes qui avaient appris à coder en assembleur.



Quand on prononce le mot “assembleur” aujourd’hui, les gens sont morts de trouille alors que c’est un des langage les plus simple.







gokudomatic a écrit :



Ben dis donc! S’intéresser à l’assembleur, c’est pour moi un peu comme s’intéresser à la recherche d’erreurs dans la déclaration d’impôts. En même temps, j’ai une aversion particulière pour tout ce qui concerne l’électronique et l’électricité (je donne un coup de savate au prochain qui dit que u=ri est simple).

Tu devais aimer la robotique ou un truc du genre. Heureusement que lego a facilité la chose et permet d’éviter l’autoflagellation de l’asm.







Apprendre l’assembleur n’est pas de l’auto flagellation, c’est vraiment indispensable pour comprendre le fonctionnement d’un ordinateur.



C’est comme les bases de l’électricité pour ceux qui font de l’électronique.



Ceux qui font l’économie de certains apprentissage fondamentaux, ça les suivra toute leur vie comme un boulet…


Le 21/11/2016 à 16h 38







jb18v a écrit :



<img data-src=" /> l’informatique à l’école.. on la met, on l’enlève, on la remet mais sans budget, on l’enlève, on demande à des gamins qui savent pas encore lire ni écrire de savoir coder <img data-src=" />



<img data-src=" /> c’est une idée stupide !



Bon après au collège ou lycée, why not <img data-src=" />







Ne pas savoir coder dans un monde de robotique et d’ordinateurs, ça sera tout aussi handicapant que ne pas savoir lire et écrire.



Et c’est une grave erreur de croire que l’apprentissage de l’informatique serait antagoniste des autres enseignement : La maitrise de l’outil informatique renforce énormément l’apprentissage des autres matières.



Le 26/11/2016 à 19h 38







Patch a écrit :



Et bien sûr tu seras capable de reconnaître le gosse en question enlevé à 700km DANS l’hôtel depuis chez toi sans même avoir vu sa photo, pour mieux aider la police <img data-src=" />







D’ailleurs, un texte sans photo aboutirait probablement à faire marcher les imaginations des personnes les plus paranoïaques et dérangées avec à la clé une grande quantité de faux positifs noyant et surchargeant les services… au détriment de vraies informations.


Le 25/11/2016 à 23h 35







Soriatane a écrit :



Es-ce qu’il y a eu abus de l’alerte enlèvement actuellement?? non!

Es-ce que le président envoie tous les mois un courrier dans toutes les boîtes aux lettres du pays pour parler de sa politique?? Non



Faut arrêter les délires.







Visiblement, tu n’a pas du tout compris ce que j’ai dit.



Quand aux courriers, ils coûtent cher.


Le 25/11/2016 à 21h 12







Hugues1337 a écrit :



19 alertes depuis 2006. Soit 2 SMS par an en moyenne. Je pense que ça devrait aller. <img data-src=" />



Et c’est un système qui se base sur la solidarité (aka toi, moi, tout le monde, pouvant remonter une info’). C’est gentil de participer. <img data-src=" />







Le problème, c’est qu’en France les pires idées commencent toujours par les meilleurs causes.



Donc quand on voit une news de ce genre, on ne peut pas s’empêcher de penser que dans quelques années, on recevra peut être aussi les discours d’el presidente…. ainsi que toutes les autres informations “indispensables” que chaque député jugera utile de porter à la connaissance du bon peuple.


Le 21/11/2016 à 21h 05

Avec la nouvelle économie, il devient de plus en plus difficile de taxer les revenus.



Le problème, c’est que nos élus veulent utiliser des méthodes dépassées, des méthodes du siècle dernier, des méthodes dont les couts de gestion sont prohibitifs.



Il existe pourtant des méthodes d’imposition qui seraient bien plus modernes et permettraient de substantielles économies de traitement administratif, comme par exemple l’émission monétaire continue.

Le 20/11/2016 à 03h 47







Joto a écrit :



Je ne vois pas l’intérêt d’en faire un stockage plus ou moins de masse. Dans un précédent article, je déplorais que la plupart de ceux qui ont un Pi s’en servent comme s’il s’agit d’un quelconque PC/serveur… c’est tout. Ce n’est pas une critique, après tout, on est libre de faire ce qu’on veut.







Il est indéniable que le PI n’est pas du tout un bon candidat pour faire un NAS du fait qu’il n’a pas de port SATA et que son port ethernet est connecté sur l’USB. Mais il peut servir pour quantité d’autres usages, que ce soit pour du desktop léger ou du serveur domestique. C’est d’autant plus vrai avec les tout récents PI 3.



Ce que je voulait dire, c’est que connecter un disque dur au PI n’implique pas forcément de vouloir en faire un NAS.





Le 19/11/2016 à 00h 00







Joto a écrit :



Faire un NAS avec un Pi… quelle idiotie… à moins de faire du RAID en USB ?







Pourquoi tu vois ça comme un NAS ?


Le 19/11/2016 à 22h 56







DahoodG4 a écrit :



J’y bosse dans l’industrie^^.







L’industrie, c’est vaste et chaque employé a sa spécialité et connait rarement celle des autres.





Le prévisionnel c’est du court terme, les garanties qu’on demande, nous les ocnsommateurs, c’est du long terme.





N’exagérons rien. On demande aux fabricants d’indiquer une durée de fourniture de pièces, pas de garantir les pièces d’un grille pain pendant 30 ans.



D’une manière générale, seul une petite quantité de produits ont une durée de fourniture de pièces qui dépasse les 5 ans. Et ce ne sont pas les plus complexes sur le plan technologique.





Personne ne peut prévoir l’arrivée du produit d’un concurrent, un défaut trouvé à postériori, un marché émergeant qui redistribue toutes les cartes, une pénurie/inflation brusque de matériaux de base, un bouleversement politique,etc.





Ah bon ?



Cela s’appelle la gestion des risques. Et comme tous les risques, il y a des méthodes et outils pour les financiariser et même les assurer.



Je ne dit pas cela par hasard, un personne de ma famille travaillait précisément dans ce domaine pour un très grand groupe français.



Comment penses tu que les industriels travaillent avec des contrats dans des pays ou le taux de change peut varier dans de larges proportions, ou le risque politique est majeur et avec des fournisseurs et clients qui peuvent faire défaut ?



L’industrie sait travailler avec des cas nettement plus difficiles que la fourniture de pièces pour le mixer de madame michu.





Evidemment qu’on fait des prévisions, mais elles sont mise a jour fréquemment, à la hausse ou à la baisse.

Rien que pour les LEDs, personne ne sait si dans 5 ans on pourra encore en produire, les matériaux rares sont dures à remplacer, et on ne trouve pas de solutions miracles. Idem les batteries.





Soyons sérieux.



Dans toute l’histoire des produits de consommation, on connait très peu d’exemples de cas ou la refabrication d’une pièce devenait totalement impossible et sans aucune solution de rechange.



Quand aux incertitudes dont tu parles pour les led et les batteries, les industriels les connaissent très bien. A eux de le gérer comme il se doit : stocks, assurances financières, étude de technologies de rechange, etc…



Ce n’est pas au consommateur d’essuyer les pots cassés pour des industriels qui ne font pas leur métier et notamment les études de risque industriel qui s’imposent.





A moins d’avoir une boule de cristal efficace, tes prévisions sont juste bonne à jeter du papier.





Sauf que objectivement, la plupart des incertitudes sont connues.



Et n’importe quel entrepreneur compétent t’expliquera comment on gère le risque de mévente ou de percée de la concurrence : on prélève régulièrement une partie des bénéfices pour constituer une réserve qui servira dans ces cas la.


Le 18/11/2016 à 19h 34







DahoodG4 a écrit :



Concernant les pièces détachées, cette loi est ridicule. Les constructeurs eux meme ne savent pas combien ils en produiront ou quand va s’arreter une production.

Idem le taux de panne moyen, sur un échantillon vraiment représentatif, est difficile à obtenir tant les renouvellement ou changement de design internes sont fréquents.

Que ce soit une petite série de friteuses LIDL ou des PS4, les révisions sont monnaies courantes, y a pas que dans les JV qu’on vend des bétas en masse.



C’est vraiment le B-A BA de l’industrie éléctronique et de l’électro ménager.







Mais bien sûr que si qu’ils le savent. Tu ne connait visiblement pas l’industrie.



Ce qui te parait compliqué à toi, c’est le métier de certains…



Même si tout n’est pas connu à l’avance, une production est toujours calé sur un plan prévisionnel initial. Ensuite, ils s’adaptent en fonction des ventes…



En pratique, il serait impossible de déterminer un prix de vente si tous les coûts de production et de SAV n’étaient pas planifiés à minima.



Ce qui leur est demandé, c’est de fournir des durées “à minima”. Et ils les connaissent parfaitement. Et si le modèle dure plus longtemps, personne ne leur reprochera de fournir des pièces plus longtemps…


Le 18/11/2016 à 00h 17







Letron a écrit :



Mais les normes vont à l’encontre de l’évolution et du libre arbitre ! Laissez moi choisir, quelque soit mon niveau de connaissance ! Et voila, je suis un libéral et d’autre sont pour l’état providence qui nous protège en régissant nos vies… si l’un avait raison par rapport à l’autre le débat politique actuel n’existerait pas. Ce n’est pas en un post sur NXI qu’on se mettra tous d’accord sur ce sujet …







C’est un débat largement abordé en philosophie.



Est ce qu’on serait plus libre dans un monde sans aucune règle, sans aucune loi, sans aucune justice ?



Il est facile de comprendre à quoi aboutirait un tel monde : l’anarchie, la peur, la loi du plus fort. La majorité des gens n’oseraient même pas sortir de chez eux. Seraient t’ils plus libre dans un tel monde ?



Donc non, moins de règles ne veut pas forcément dire plus de liberté.



Pour faire court, l’idéal, c’est un monde d’équilibre. Trop de règles, c’est mauvais. Pas assez, c’est mauvais aussi. Et ce n’est pas qu’une question de quantité, il faut surtout avoir les bonnes règles.



Il faut réaliser que dans l’informatique, il n’y a quasiment aucune régulation en comparaison des autres domaines. C’est l’anarchie.



D’ailleurs, tu parles de choix, mais ou sera ton choix demain quand tous les constructeurs vont emboîter le pas d’Apple parce que ce sera leur intérêt économique ?



Crois tu sincèrement que tu achèterait librement l’essence de ta voiture et que tu choisirait librement le garage pour l’entretien si l’on n’avait pas obligé les constructeurs à respecter certaines règles pour le bien de la libre concurrence ?



N’en déplaise aux utopistes de l’ultra libéralisme, la vérité c’est que dans la vraie vie, le libéralisme meurt rapidement sous le joug des monopoles quand on n’applique pas un minimum de régulation, de règles et de normes pour le bien commun.



Dans l’informatique, comme partout, il faut des règles et des normes.


Le 17/11/2016 à 23h 52







ragoutoutou a écrit :



Linux n’est pas un OS mais un noyau…







En pratique, le terme s’est très largement popularisé pour désigner l’os complet basé sur le noyau Linux.





et c’est vrai que ce noyau est plutôt incontournable et attire pas mal d’acteurs qui ne toucheraient pas la GPL pour d’autres composants … dès qu’on sort du noyau et à part dans le cadre d’un pur usage interne, les softs GPL sont plutôt évités par les grands acteurs traditionnels qui préféreront investir dans des solutions plus permissives.





Les acteurs traditionnels aimeraient bien le beurre et l’argent du beurre, c’est à dire profiter du travail du monde du logiciel libre pour faire des logiciels propriétaires et garder pour eux toutes les améliorations sans les partager.



Mais ce modèle ne fonctionnera jamais. Quand on prends sans reverser, le logiciel ne progresse pas.



Voila pourquoi le modèle des licences GPL fonctionne mieux que celui des licences permissives.



Comme il récupère plus de “travail”, le modèle GPL tends à gagner la bataille sur le long terme…





Un exemple simple: Android (licence permissive sauf kernel)… voici un OS conçu par Google et qui donne un maximum de flexibilité pour les concepteurs de SOC’s, les fabriquants de téléphones et les opérateurs téléphoniques. C’est pour eux qu’Android est conçu, c’est pour eux que Google a créé un OS qui bien que tournant avec un noyau Linux, ne comporte que des obligations très minimales d’ouverture du code.





Android n’existe que parce que Google l’a créé et continue de le maintenir.



Je ne crois pas à la survie à long terme de cet Os. Quand plusieurs acteurs se regrouperont derrière un Os mobile vraiment libre et plus universel sur le plan technique, Android tombera en désuétude.


Le 17/11/2016 à 22h 58







KP2 a écrit :



Et la plupart des gens achètent des voitures alors qu’ils font moins de 5km par jour et qu’ils pourraient les faire en vélo… mais les “besoins” des gens sont pas uniquement rationnels. Y’a une part d’irrationnel, une part de vrai besoin et une part de pur plaisir. C’est pas à moi ni à personne d’autre de juger cela.

Et quand qqn demande conseil, il faut savoir prendre tout ça en compte… et pas juste le coté “perf” ou “prix” ou que sais-je







Je suis d’accord sur le fait que beaucoup d’achats ne sont pas rationnels.



Mais il y a des raisons objectives à cet état de fait. D’une part, le consommateur lambda manque d’informations et de connaissances techniques. D’autre part, le marketing moderne joue sur l’émotion pour détourner le consommateur des critères d’achat plus rationnels.



Dans l’intérêt du consommateur et de l’économie de notre pays, je pense que nous ne devons pas laisser les constructeurs décider de tout.



Par rapport aux autres domaines, l’informatique souffre d’un manque de normes absolument flagrant.


Le 17/11/2016 à 22h 30







KP2 a écrit :



Et maintenant, on a droit aux avantages comparés des PC desktop tour sur un ultrabook… de mieux en mieux…

Moi, je vais me mettre à disserter sur des avantages des Camionnettes sur les scooters électriques, on sera dans le même niveau d’absurdité. Au moins, quand on nous parlait de Toshiba Satellite, on restait dans les portables…







La comparaison a du sens quand on sait que la plupart des gens achètent des portables qu’ils utilisent comme des postes fixes.



Mais cela reste valable dans une moindre mesure avec des portables. Avec un portable PC, je peux augmenter la RAM et le SSD.


Le 17/11/2016 à 22h 11







ragoutoutou a écrit :



Tu confond libre, gratuit et open source… les ténors du marché sont généralement anti-libre ( à cause de la philosophie que cela représente et de cette volonté de toujours faire passer l’utilisateur final devant), mais pro open-source (surtout si la licence est permissive au point de pouvoir ressortir le soft en dérivatif propriétaire).



L’adoption de soft sous GPL ne se fait généralement que quand il n’y a pas d’alternative correcte (par exemple le noyau Linux qui continue à se répandre dans l’embarqué)







Je ne suis pas d’accord.



Malgré le fait qu’il existe d’excellents Os sous licence permissive, c’est bien Linux et sa licence GPL qui ont pris le leadership incontesté.



Et ce n’est pas un hasard si c’est un système sous GPL qui reçoit le plus de travail.



Quand aux ténors du marché, peu importe pour quoi ils sont. Quand une solution libre est économiquement avantageuse, ils s’en servent et y contribuent bon gré, mal gré.


Le 17/11/2016 à 21h 52







KP2 a écrit :



OK, ben va s’y, fabrique s’en 1 million et on verra… Allez, ne serait-ce qu’une série de 1000, ca suffira largement pour avoir le taux de panne.







Il serait certainement excellent.



L’un des paramètre connu qui joue le plus sur la durée de vie et le taux de panne des composants, c’est la température. Et ce sont les études des fabricants de composants qui le disent.



Les bons PC d’assemblage sont les machines les mieux refroidies. Elles ne chauffent pas, même à fond et en pleine canicule.



Et si une panne survenait malgré tout, l’avantage, c’est qu’on peut réparer facilement, rapidement et pour un coût modique.





Franchement, qu’est ce qu’on en a a battre ? Déjà pour réparer de l’Apple et accéder au catalogue de pièces officielles, il faut être agréé. C’est pas nouveau, ça a toujours été comme ça. Donc qu’est ce que ça peut bien changer pour ceux qui le sont pas ? Rien du tout.

Après, pour des machines à ce prix et à ce niveau d’intégration, qui irait faire réparer son ultrabook dans une boutique de quartier plutot que passer par le SAV officiel du constructeur ? Franchement, pas moi… Surtout si je tombe sur un mec comme sr17 qui sort son fer à souder pour changer la RAM…





Pour moi le PC est un outil de travail. J’évite de dépendre du SAV d’une marque.



L’avantage du PC.



-Pièces facilement disponibles dans les réseaux de revendeurs.

-Possibilité de choisir entre des pièces de marque différente.

-Pas besoin de fer à souder, de machines couteuses ni de compétences pointues pour changer un composant, c’est à la portée d’un amateur.

-Possibilité de faire réparer partout.


Le 17/11/2016 à 20h 15







trekker92 a écrit :



ca tu le ressens lorsque l’invasion des geeks tendance communiste se répand quand on parle proprio/libre :

ils ont des solutions, ils ont juste oublié que les solutions sont pas acceptables en monde pro parce que leurs méthodes ne correspondent pas (et ne correspondront pas) à celles de trois geeks dans leur garage.



un pro qui a office, tu le passes pas au libre en un an. Pas sans gros effort, qu’il refusera évidemment parce qu’il “bosse, et n’a pas que ca a foutre”, ce qui est totalement compréhensible : les pros, du coté matériel ou logiciel, utilisent comme les michus du “kimarche” (viser ici actionfighter et patch, nominativement), parce qu’ils ont leur productivité qui en dépend directement.

et je les comprend.



c’est comme proposer du feu de bois à la place d’un radiateur, à part les écolos (et encore), peu accepteraient :

la bidouille logicielle ou matérielle est prohibée (hors R/D) en entreprise.







Pourtant, le monde de la nouvelle économie tourne majoritairement sur du logiciel libre. <img data-src=" />



Et pour ma part, je verrais plutôt dans le libre une nouvelle forme de capitalisme qui tire partie de l’absence de cout de duplication.







Le 17/11/2016 à 20h 05







trekker92 a écrit :



sauf que les consommateurs ne réagiront pas, puisqu’ils sont satisfiats



seuls les geeks se plaignent, c’est à dire qu’ils sont deux.









bien heureusement, ca alimente fortement la croissance industrielle.

par rapport à l’innovation, je vois clairement le fer de lance sur la barre tactile :

depuis vingt ans les vieux claviers d’ordis proposent des boutons raccourcis, de l’icone mail jusqu’au lecteur multimedia, en passant par les touches messenger, calculatrice (que tout gamer utilise au ptit dej, bien evidemment) qui décorent la zone nordique de nos chassis de claviers.

Les premiers à la barre de la défense : les devs, qui veulent changers leurs touches raccourcis, adapter à leurs manips en série, etc.

les seconds à la barre : les gens comme vous et moi qui se plaignent du manque d’adaptation évident de ces raccourcis, car tout un chacun sait que d’un utilisateur à l’autre ces fonctions sont largement diversifiées et variables.



Et la, enfin, apple prend le relais d’hp sur le tactile (qui avait démarré avec une barre de son désastreuse) pour adapter l’idée en fonction du besoin meme de l’utilisateur : barre de progression, pavé tactile, raccourcis claviers supplémentaires…. Adapté en fonction du logiciel à l’écran, à l’instar de la barre de menu de MacOS.



Et tout le monde hurle pour une avancée potentielle qui sera très surement répandue sur la majorité des ordis portables (copiée, pas adaptée hein) dans les dix/quinze ans à venir si ce n’est plus tot.



ce n’est qu’un écran tactile fin adapté pour s’intégrer au clavier, que je trouve interessant d’expérimenter avec les années.

yen a pas qui se plaignaient de metro, meme sur les tactiles? bah la c’est pareil :

on change les habitudes, les francais hurlent. Et pour internet, ca s’est passé comment, papy?





on les laisse faire depuis plus de vingt ans, on a déjà des prises proprio sur les iphones, certains appareils d’autres marques, qu’il s’agisse de l’informatique ou de tout autre domaine.

donc oui, l’industrie sera toujours, sous le motif de la croissance, le premier élément en légitimité complète pour changer les habitudes au quotidien des gens : les écrans que vous avez dans les mains, vous pensez qu’ils dérogent à cette règle?







Sauf que la croissance, quand les produits ne sont plus fabriqués chez nous, on peut la chercher longtemps.



En 15 ans, la France s’est complètement désindustrialisée.



La vérité, c’est qu’aujourd’hui la France consomme à crédit pour acheter des produits qui sont fabriqués ailleurs et dont les bénéfices partent ailleurs.



Et même si nous voulons continuer à consommer sans changer nos habitudes, ça ne sera pas techniquement possible.



Le 17/11/2016 à 19h 44







KP2 a écrit :



Naaaan ??? dis t’es sérieux là ??

Franchement, tu racontes carrément n’importe quoi…







C’est pourtant très facile à démontrer. Les tarifs des pièces informatique sont sur le web. <img data-src=" />





Ouais, c’est une idée… après, faudra pas s’étonner si les prix seront multipliés par 4 mais pourquoi pas…





Si je prends l’exemple des PC d’assemblage que je me monte, ils durent facilement 10 ans. Et ils ne coûtent pas plus cher qu’un mac.



Et quand je veux en changer, je les donne, il y a toujours des personnes qui ne sont pas riches et qui n’ont pas besoin de “la dernière”.



L’un d’eux approche les 15 ans et sers à une personne agée pour surfer sur internet.



Donc ouais, vous me faites bien marrer quand vous parlez de garantie…





Ouais mais quand ta soeur aura tous ses periphs en USB-C et qu’elle pourra y brancher son appareil photo et transferer de la rafale en temps réel grace aux ports à 40Gb/s, tu crois que ça sera pas un gain au quotidien pour elle ?





Faudrait t’il encore qu’on en trouve…



Et le jour ou l’on en trouvera, tu achète une carte USB-C, tu la carre dans un slot de ton PC et ça roule.



Je me souviens de l’époque ou Apple à décidé de passer à l’USB, un pote graphiste m’a donné tous ses périphériques. Merci Apple… <img data-src=" />


Le 17/11/2016 à 16h 57







Xaelias a écrit :



prix hors de propos: honnêtement tous les appareils similaires coûtent des prix similaires. Je vois pas autant de personne râler sur le prix de la surface book…

irréparables hors ateliers: les consommateurs s’en foutent. Le %age de personne qui sont prêtes à démonter leur ordi portable pour le réparer est infime. Sans parler du fait qu’il faut savoir exactement qu’elle est le problème matériel. Je n’ai jamais eu besoin de réparer un ordi portable moi-même. J’en ai eu quelques-uns. J’en ai cassés quelques-uns. Le plus vieux la batterie a cramé, brulant l’écran. Inutile d’essayer de remplacer quoi que ce soit. Le suivant j’ai pêté l’écran. Le remplacer coûtait juste trop cher par rapport au prix de la machine. Le suivant était un MBP 15” qui tourne toujours dans la famille (il pourrait profiter d’un changement de batterie mais il est sédentaire de toute façon). Celui que j’utilise en ce moment est fourni par mon bureau, et il est juste vieux. À moins d’upgrade le CPU (ce qui n’est pas vraiment possible…)…



Bref les gens ne réparent pas leur ordis portables. Soit ils sont sous garantie (étendue ou non) et ils le font réparer comme ça, soit ils en achètent un nouveau.



Les gens sur ce site, une fois de plus, sur-estiment très fortement ce que les gens font avec leur ordi. Ils veulent que ça marche. Même le dev moyen veut pas se faire chier à remplacer son SSD. Alors ne parlons pas des DJs, photographes, éditeurs vidéos…







Vous oubliez que le problème se pose aussi pour les réparateurs.



Ce n’est pas parce qu’on ne met pas les mains dans sa machine qu’on ne la fait pas réparer en cas de panne.



Essayez de trouver un dépanneur de proximité qui dispose de l’équipement nécessaire pour souder une RAM…



Quand à dire qu’il serait acceptable que la durée de vie d’un appareil électronique soit limitée à sa garantie, c’est fait quand même une durée de vie franchement courte. Ou alors il faudrait une loi pour porter la garantie obligatoire à 5 ans.


Le 17/11/2016 à 16h 42







tuxman a écrit :



Tant qu’ils trouveront des gogos pour acheter leurs matériels a des prix hors de propos , irréparables hors ateliers, non up-gradable par l’utilisateur, pourquoi ce gêneraient ils . C’est aux consommateurs de réagir en refusant cette politique absurde .







La majorité des consommateurs n’ont pas l’information et les connaissances nécessaires pour cela. Tu imagine bien que ce genre de chose n’est pas mentionné à l’achat.



Dans de tels cas, c’est aux politiques de protéger le consommateur avec des normes et des loi.


Le 17/11/2016 à 16h 37







Furanku a écrit :





C’est comme les prises jack pour les iPhone : HTC va suivre la voie.









Et malheureusement, ce que fait Apple est souvent suivi par les autres.



C’est pour cela que je pense qu’il est illusoire de croire qu’on pourra se passer de normes interdisant certaines pratiques.



Si on laisse faire les grandes multinationales, dans 20 ans on aura des prises de courant propriétaires pour certains appareils.



Le 17/11/2016 à 16h 30







KP2 a écrit :





Ah ouais ? et tu crois qu’elles viennent d’ou les pièces de rechange ?

Je crois que c’est l’argument-qui-l’apparence-de-l’intelligence le plus idiot que j’ai entendu depuis longtemps…







Sauf que remplacer une pièce unique coûte beaucoup moins cher que tout l’ensemble <img data-src=" />



Le 17/11/2016 à 16h 13







KP2 a écrit :



Pourquoi ?







Parce que c’est dans notre intérêt national d’obliger les constructeurs a vendre aux consommateurs du matériel qui est réparable simplement et upgradable afin de maximiser sa durée de vie.



Tout ces gadgets électroniques que l’on importe pèsent sur notre balance commerciale. <img data-src=" />


Le 17/11/2016 à 16h 10







metaphore54 a écrit :



Pourquoi pas si le profil des acheteurs n’est pas de toucher les composants.







Même si tu ne touche pas les composants, ça influe sur la possibilité de faire réparer…



Un bon PC d’assemblage, tu le fait réparer pour pas cher en 12 heure dans la boutique du coin de la rue…


Le 17/11/2016 à 16h 04



Mauvaise nouvelle par contre, le SSD est désormais soudé à la carte mère, comme c’était déjà le cas pour la mémoire vive et le processeur. Cela empêchera donc toute évolution future et il faudra être bien attentif au moment de commander votre machine.





Je trouve que c’est inacceptable pour du matériel hors de prix.



En tout cas, ce n’est pas du tout ma définition du matériel haut de gamme…



On devrait interdire ce genre de pratique.

Le 17/11/2016 à 15h 45







tazvld a écrit :



ça fait 1an et demi que n’ai pas retouché, il n’y avais pas encore scénario à mes souvenirs (je n’ai fait que la carte avec une plateforme à coté d’un astéroïde, 2 gros vaisseaux et 2 plus petits). Du coup, je referais peut être un tour.







Le jeu a beaucoup évolué depuis. Ca vaut vraiment le coup d’y refaire un tour. <img data-src=" />





Oui, mais Minecraft sert de référence pour décrire ce genre de jeu. J’ai rapidement regardé tout à l’heure une vidéo de présentation du jeu, le mec commence par décrire le jeu en le comparant directement à minecraft, “c’est une sorte de minecraft…”.





C’est la facilité, mais à présenter des jeux ainsi, cela donne l’impression qu’ils ne sont que des variantes de Minecraft avec peu d’intérêt propre.



Est ce qu’on présente le dernier Battlefield en disant que c’est “un jeu comme Doom” ?



Minecraft a beau être un excellent jeu, il n’a pas pour autant inventé le voxel. C’est pour cela qu’il est navrant de voir les jeux de ce type être systématiquement réduit à cette comparaison.





Pour le libre et les mod : Et ? c’est bien ce qui est promis sur le papier, mais dans la réalité, c’est une considération pour lequel la grande majorité de la communauté s’en fout. Redpower et mort, ben on fera sans, dans la tonne de mod, il y aura peut être un autre qui le remplacera. Il y a une communauté, il y a plein de mods, on trouve son bonheur et ses clones.





Pour ma part, je trouve cela pénible de voir des mods interessants qui disparaissent des packs. Cela rends le gameplay instable…



Mais le pire, c’est la dualité grandissante entre la version Java et l’autre version qui pose l’évidente question de la survie à long terme de tout ce travail communautaire.



Tout ces problèmes ne se poseraient pas dans le monde du logiciel libre.


Le 16/11/2016 à 19h 24







tazvld a écrit :



Space Engineer, je l’ai acheté (sur recommandation d’un mec sur NextInpact, peut être toi en faite), j’ai essayé vraiment pendant 2h il y a quelque temps, j’ai juste détruit des vaisseaux et une plateforme… J’ai pas trop compris la construction et la liberté 6-axis c’est chaud pour s’y retrouver (surtout avec une gravité qui apparait d’un seul coup). Et seul on se sent vraiment seul… très seul. Même dans KSP, on a nos petits kerbonautes et les ingénieurs qui trainent. Peut être en multi et quelques heures de tuto/let’s play.







Space Engineers est indéniablement plus ardu au départ que Minecraft parce qu’il repose sur des paradigmes plus complexes. Malheureusement, il est vrai que les scénario proposés ne sont pas très pertinents et peuvent perdre facilement les joueurs débutants.

Cependant, je te conseille vivement de persister parce qu’une fois la base acquise, on s’amuse vraiment par la suite. C’est particulièrement vrai depuis qu’ils ont ajouté les planètes, les ennemis et tout un tas de chose qui rendent le monde plus vivant. Enfin, le développement est très actif avec une mise à jour par semaine.

Sinon, le bon point, c’est que tu n’aura pas besoin d’apprendre de nouveaux “crafts” puisque dans ce jeu, ils sont complètement automatisés.



Le conseil que je peux te donner, c’est de faire l’ensemble des tuto in-game et de commencer par le scénario sur la terre pour aller dans l’espace ensuite. Le truc, c’est qu’il faut rapidement dégommer la base ennemie pas loin pour ne plus être embêté par les attaquants (il faut d’y aller avec son jetpack et une mitraillette en jouant à cache cache avec la montagne et les obstacles pour dégommer les tourelles mitrailleuses).



Pour le reste, les “axes”, c’est plus simple qu’il n’y parait au départ. Quand tu met un cube, tu peux choisir son orientation. Il y a 3 axes différents de rotation et on peut tourner dans un sens ou dans l’autre, donc ça fait 6 touches. Au départ, tu peux y aller à tâtons, tu pigera vite. Faut juste éviter les claviers de portable qui peuvent avoir des touches éparpillées.



Une des grandes différences entre Minecraft et space engineers, c’est que dans Minecraft, il n’y a qu’un seul espace de cubes. Dans space engineers, les espaces sont multiples et l’on peut choisir entre deux tailles de grilles. Chaque vaisseau dispose de son propre espace. Et pour créer un vaisseau, il faut placer d’abord un cube (préférentiellement un train d’atterrissage. ).

Un piège à éviter, c’est qu’il faut choisir la bonne taille de cube en fonction de la grille (touche “R”) sur laquelle on construit, sinon le jeu refusera de placer l’élément.





Mais en soit, ce que je dis, c’est que même différent sur de nombreux point, la comparaison viendra à un moment. On est sur des jeux très libres, sans scénario, sans but en soit, basé sur la construction du type bloc.





Disons tout au plus qu’ils appartiennent vaguement au même genre, c’est à dire le type Voxel Sandbox.



Mais il faut garder à l’esprit qu’un genre engendre toujours de nombreux jeux différents qui peuvent avoir chacun leur intérêt propre.





Heu… les modeurs, sont issue de la communauté du jeu, il faut avant tout une communauté pour avoir des modeurs. Ce n’est pas l’aspect libre qui compte. Et minecraft, c’est du java, c’est pas comme si c’était impossible de “décompiler” les sources (c’est la base du du moding sur minecraft à défaut d’API officielle.)





Sauf que le logiciel libre, ce n’est pas juste un problème d’avoir vaguement accès au code source. C’est une école avec des règles qui permettent à tous d’améliorer et de reprendre le travail d’autrui tout en permettant légalement les interactions entre différents morceaux de code.



En partant d’une base propriétaire, l’esprit libre et les règles du libre ne se sont pas installées : de nombreux mods ont été publiés sous une licence propriétaire, voire sous aucune licence claire. Cela entraîne de nombreuses conséquences néfastes, dont le fait que certains mods ne peuvent pas être repris par d’autre si leurs auteurs décident d’arrêter (exemple du mod Redpower).

Et tout cela sans compter que la base du jeu lui même ne pourra jamais être forkée et sera donc toujours tributaire du bon vouloir de l’éditeur qui est libre d’imposer des changements sur lesquels la communauté n’aura jamais son mot à dire…


Le 16/11/2016 à 16h 42







TheKillerOfComputer a écrit :





Pour moi, Minecraft est plus un jeu d’exploration, or il pèche considérablement sur ce point à part le côté infini de son monde. La difficulté est faible, la faim est une formalité, il y a au plus 45 biomes et peu de blocs permettant une éventuelle industrialisation si on veut se poser. On en fait vite le tour.









Il faut être honnête, si on exploite toutes ses possibilités, le jeu de base offre quand même un nombre d’heures de jeu impressionnant.



Mais comme tout jeu, il est inéluctable de finir par s’en lasser. Il y a effectivement les mods, mais aussi d’autres jeux comme Space Engineers cité plus haut.





Et là Minecraft devient intéressant. Mais certains des mods cités n’ont pas de versions post-1.7.10, probablement à cause de la fréquence des mises à jour.





A vérifier, mais je crois qu’il y a eu un changement important du moteur graphique. Du coup cela demanderait un travail important aux auteurs de mods. Et certains n’ont pas forcément le temps ni la motivation de le faire.



C’est la limite d’un modèle communautaire qui n’est pas parti sur les bases du logiciel libre…


Le 16/11/2016 à 20h 49







fred42 a écrit :



L’article 121.3 du Code Pénal dispose que :







Ce n’est donc pas si simple que cela.



Il faut prouver l’intention et en ne trouvant rien sur d’inquiétant sur lui dans son PC ou téléphone, dire que ces publications “peuvent être interprétées comme un encouragement au passage à l’acte et à mener des actes terroristes”, ça ne suffit pas. C’est à la la procureur de la république de faire la preuve, pas à l’accusé de prouver son innocence.







Quand quelqu’un commet un excès de vitesse, est ce qu’on doit pour autant prouver l’intentionnalité pour le punir ?



Non, on se base simplement sur le fait que ce qu’il a fait était interdit et que nul n’est censé ignorer la loi.



On peut également punir quelqu’un qui a mis en danger la vie d’autrui de manière manifeste ou qui incite à faire quelque chose d’illégal.



Or, tout ce qui touche aux explosifs est à la fois dangereux et interdit.


Le 16/11/2016 à 17h 21







graphseb a écrit :



Avant. Et c’est comme ça que le “Pré-Crime” est né. Foutons vite en taule tous les types menaçants, louches, au passé douteux (etc.) ou affublé de n’importe quel trait divergeant de la bien-pensance.



Navré de te citer mais le propos me choque. Un pas de plus vers une dérive eugéniste ?







Je suis d’accord qu’il faut faire attention à certaines dérives qui se profilent…



En même temps, si on laisse circuler des recettes de bombes, tu peut être certain qu’il y a des milliers de jeunes qui vont se faire péter la tronche bêtement avec ça… sans parler des idées que ça peut donner à des déséquilibrés qui ne manquent pas en cette période de chômage massif.



Donc il n’est peut être pas complètement idiot d’interdire la diffusion de recettes d’engin de mort.



Et certes, la peine est dure, mais en même temps, le gars n’est pas un gamin : un homme de 40 ans devrait quand même avoir le minimum de maturité pour comprendre les dangers potentiels de ses actes.