Ce qu’il faut mettre en priorité, ce sont les formats de données interopérables, ouverts, et exploitables sur le maximum de solutions de tout bord.
…
Arrêtez de rêver, ça n’existe pas et ça n’existera jamais…
Non seulement une interopérabilité parfaite est impossible sur le plan technique, mais en plus, les éditeurs du monde propriétaire ont toujours suivi leur intérêt qui était de saboter l’interopérabilité pour verrouiller leurs parts de marché.
Le
13/01/2016 à
21h
35
tazvld a écrit :
Le logiciel importe peu. Ce qui est important, c’est le format des fichiers.
Non.
La réalité du monde informatique démontre que les formats de fichiers ne seront jamais vraiment interopérables. Et quand il y a un standard, les éditeurs du monde propriétaire arrivent toujours à le dévoyer à leur avantage pour tuer l’interopérabilité.
D’un point de vue théorique, on peut facilement démontrer l’impossibilité d’une interopérabilité totale dans la mesure ou deux logiciels n’auront jamais exactement les mêmes fonctionnalités. Et les éditeurs du monde propriétaire ont toujours joué de cela.
En informatique, le vrai standard, c’est le code. Le reste n’est que rêve utopique de théoriciens déconnectés des réalités.
Un logiciel, qu’il soit libre ou pas, j’en ai rien à foutre, je demande juste qu’il fasse le boulot. Ce n’est qu’un outils. Mais le fichier qui découle de ce boulot, lui ne doit poser aucune contrainte quant-à son accès et justement que l’on puisse l’ouvrir avec le logiciel de son choix, libre ou pas.
Penser que la fonctionnalité est la seule chose qui compte est une vision a courte vue qui oublie quantité de facteurs primordiaux.
Il y a d’autres paramètres bien plus importants.
Par exemple, le contrôle du devenir d’un logiciel dans lequel on a investi du temps de formation et dont nos données sont désormais prisonnières.
Tôt ou tard, un éditeur de logiciel propriétaire prendra une décision idiote que vous n’aurez pas d’autre choix que de subir.
Tôt ou tard, un éditeur de logiciel propriétaire prendra des orientations techniques pour pousser à l’utilisation d’autres produits qui l’arrangent.
Mais en tant qu’utilisateur, vous comprendrez l’importance de ces autres facteurs avec le temps.
Ajoutons qu’il y a d’autres facteurs qui sont d’ordre géostratégique dont je parle plus bas.
Mais là pour nous le vendre, il nous la font à la mode sécuritaire.
Nous pourrions toujours disserter sur le fait que prendre une décision, c’est imposer.
Mais il faut réaliser que dans la pratique, il n’y a pas de demi mesure possible. Soit on choisit une logique, soit on choisit l’autre. Tout ce qui se situera entre les deux fonctionnera très mal, l’interopérabilité entre libre et propriétaire n’étant pas bonne.
Quand on prends des décisions pour une pays, il existe des problématiques qui dépassent de loin les petits problèmes de fonctionnalité parce qu’ils touchent à des enjeux géostratégiques bien plus importants. Par exemple, dans un petit pays indépendant comme la France, as t’on vraiment intérêt à accroître la dépendance à l’industrie américaine ou au contraire à suivre la même voie que les BRICS qui ont choisi ostensiblement le logiciel libre pour s’en affranchir ?
Je sais ce que c’est le libre, je sais comment ça marche, merci. " />
Sans vouloir t’offusquer, je connait très peu de personnes qui le savent réellement.
Bref, c’était pas ma question. En fait même quelque part, je m’en fiche qu’il soit libre. Ma question c’était : Est-ce qu’il est concurrent de Premiere ou une alternative tout au plus ? (j’ai déjà eu ma réponse, pas la peine de rebondir dessus)
Comme nous somme sur un forum et que la discussion intéresse d’autres personnes, je répondrait quand même. La réponse à cette question n’est triviale dans la mesure ou si l’on réfléchit réellement à l’ensemble des paramètres, le soft idéal dépends de l’usage et de l’activité souhaitée.
Donc a la question “est ce que OpenShot est un concurrent”, la réponse peut être oui dans un certain contexte et non dans un autre.
Par exemple, un mauvais choix pourrait être de pirater des softs propriétaire pour des besoins qui n’auraient rien de professionnels.
Un utilisateur final cherche à avoir un soft qui répond à son besoin, il n’en a rien à battre que ce soit libre ou non.
Sauf qu’en informatique, l’utilisateur qui ne raisonne qu’a court terme finit toujours par le payer.
Et ça, c’est l’expérience de plusieurs décennies.
Pour l’utilisateur qui s’en fout, c’est son choix.
Le
12/01/2016 à
17h
28
Zorglob a écrit :
" />Hep hep hep hep…
Je ne voulais rien dire (parce que je pense que l’essentiel de l’info est la vie d’un projet Kikstarter et pas forcément la vidéo), mais là tu t’emballes grave quand même…
Dans le domaine estampillé “pro”, donc utilisé par des pros pour des projets pro (j’te cache pas que c’est mon cas), les logiciels de montage , même s’ils sont agrémentés d’autres fonctions suivant les cas, sont clairement Avid Media Composer, Final Cut Pro, Première Pro, DaVinci Resolve*, voire Lightworks.
[*Je l’ai mis ici pour pas perdre de temps à disserter sur ce qu’est l’étalonnage]
Les films que tu vois, les pubs, les docu, les ITWs, les reports etc, toutes destinations professionnelles, sont montés à 95% là-dessus. Il y a même une 2ème catégorie qui suit (genre Sony Vegas, Edius et cie…)Ensuite, les softs pour SFX, compositing, rotoscopie, etc…, qui sont toujours “pro” sont très très loin au-dessus de ce que tu cites (voir Flame, Smoke, Fusion par exemple), je veux bien retenir Blender qui s’approche de cette cour, stou ;)
Donc sans vouloir t’offenser, non seulement tu confonds la fonction montage avec d’autres qui ne sont que d’autres maillons de la chaine de prod, mais en plus le niveau “top pro” n’est absolument pas au rv dans ce que tu cites, y compris dans leurs secteurs respectifs.
Enfin bref, spa grave mais il faut le concéder quand même…
Je suis d’accord.
Mais combien ici font réellement du montage vidéo à un niveau qu’on peut qualifier de “pro” ?
Et la question qui fâche : combien ici sont réellement prêts à investir l’argent qu’il faut pour se les payer ainsi que leurs mises à jour ?
Beaucoup de gens ne voient pas le piège qu’il y a de pirater des logiciels et d’investir en formation personnelle dans des softs qu’ils ne pourront jamais se payer.
En appliquant cette logique à tous les softs, si un jour ils sont obligés de bosser à leur compte, ils seront coincés. Soit ils devront prendre de gros risques (dans le monde du travail, les dénonciations sont courantes), soit ils devront raquer beaucoup d’argent et auront du mal à rentabiliser.
Le
12/01/2016 à
17h
19
shadowfox a écrit :
Jamais entendu parler de ce logiciel, mais si on doit le comparer à Adobe Premiere, est-ce qu’il sera un bon concurrent ?
Déjà, tu compare un logiciel libre avec un logiciel propriétaire. Et avant de juste comparer les “features”, je t’engage à comprendre tout ce qu’est le libre, tout ce qu’apporte le libre. Et cela aussi bien d’un pointe de vue des droits, du prix, mais également d’un point de vue technique. Par exemple, tout ce qu’un code ouvert permet en matière de mods communautaires.
Il ne faut pas oublier que l’apprentissage d’un logiciel est un investissement non négligeable et qu’il ne se rentabilise qu’a très long terme. Et sur le long terme, les logiciels libres finissent toujours par surpasser leurs équivalents propriétaires.
Ouvrir les logiciels de calculs pourquoi pas, par contre, j’espère
que dans le “code source” ca ne comprend pas toute l’organisation
informatique interne …
…
Je pense que ta question c’est “est ce que la divulgation de ces logiciels peut mettre à mal la sécurité des systèmes de bercy ?”.
Si les informaticiens ont fait leur job à peu près correctement, la réponse est non.
Des logiciels à code source ouvert sont généralement reconnus comme plus sûr car les failles peuvent y être repérées et signalées par un grand nombre de gens.
Le
11/01/2016 à
21h
02
tipaul a écrit :
Autant je suis un libriste convaincu, passionné, j’en ai même fait mon travail et monté ma boite, autant je comprends que ce sujet est une boite de pandore : si le code est ouvert, les geeks fiscalistes vont s’en donner à coeur joie : il y a plein de marges d’interprétation dans les lois fiscales. Du coup, si on révèle le code source, les “riches” vont pouvoir être encore plus riche en trouvant les failles dans le code (et donc en optimisant l’impôt).
Les sans-dents, bien évidemment, ne profiteront pas de grand chose.
Vu le nombre de rubriques d’une feuille d’IR (pas celle d’un salarié lambda, celle d’un mec qui a des revenus salariés, non salariés, issus de l’étranger, patrimoniaux immeubles, patrimoniaux meubles. Et qui optimise ses réductions d’impôt au max avec des investissements dans les DOM-TOM, des tableaux de maître, des monuments historiques, des dons pour réduire son impôt sur la fortune, j’en passe et des meilleures)
Je suis sûr qu’il y a des failles dans le code, pour ne pas dire des bugs (si, en fait, des bugs).
Remarque, ça créérait un nouveau métier : “geek fiscaliste”, je monte une boite, et je vends mes conseils pour 30% de l’économie réalisée. Evidemment, je signale pas les bugs que j’ai trouvé, hein, je suis pas con non plus…
Bref, je pense que c’est à manipuler avec des pincettes cette affaire… (mais je suis bien content que qqn ait mis les pieds dans le plat, et bien déçu de la réaction de l’administration qui joue la montre ou joue l’andouille… Il devrait bien y avoir moyen de trouver une méthode intelligente pour communiquer le code)
Et quoi ?
En France, l’insécurité fiscale est telle que beaucoup de petits entrepreneurs se méfient (a juste titre, bien souvent) de dispositifs fiscaux tout à fait légaux.
Et ça, ce n’est pas une bonne chose. Parce que si le politique décide d’un dispositif fiscal, c’est parce qu’il souhaite encourager certaines choses.
Par exemple, quand les petites entreprises finissent par sous utiliser le crédit impôt recherche par peur de représailles, il y a des conséquences néfastes sur l’économie.
Tout le monde fait l’erreur de généraliser l’image de la grosse entreprise qui joue a mort avec les règles pour optimiser.
Le
11/01/2016 à
20h
41
Drepanocytose a écrit :
Perso je suyis pour l’ouverture, mais là :
effectivement ca va aussi donner en clair le système de contrôle automatisé des fraudes, et j’imagine que personne ne veut ca.
Je ne suis pas d’accord.
Je ne vois pas en quoi il serait mauvais de connaitre de manière claire ce que le fisc considère comme une fraude.
Ce n’est pas parce qu’on connait la vitesse ou un radar va flasher que cela donne pour autant plus de possibilité de frauder. Cela donne simplement des limites plus claires et absolues, ce dont notre système fiscal à grandement besoin.
le code des impots est ouvert : il suffit aux gens qui veulent utiliser le calculateur de se sortir les doigts, de prendre le code des impots et de programmer ca eux mêmes.
Regarde un jour le code des impots juste pour voir à quoi ça ressemble. Tu comprendra qu’il existe une foultitude de cas ou il n’est pas évident de répondre d’une manière claire.
Pire, il existe certains cas de figure tout à fait légaux qui déclenchent très souvent un contrôle fiscal. Par exemple le fait de demander un crédit impot recherche.
Et un contrôle fiscal, c’est en pratique lourd de conséquence, même pour ceux qui ne sont pas des fraudeurs.
Ils auront tout loisir alors de vérifier le code de l’état en comparant les resultats de leur soft à celui de l’état sur des cas concrets.
En France, les entreprises passent un temps monstrueux (ou doivent payer très cher en conseil) juste pour savoir ce qui est autorisé ou ce qui ne l’est pas.
Avoir un logiciel qui dirait “ce que vous souhaitez faire est mal” serait d’une grande aide pour diminuer l’insécurité fiscale pour les petits entrepreneurs qui ne souhaitent la plupart du temps pas autre chose qu’être en conformité avec les règles.
Dans bien d’autres pays du monde, les règles fiscales sont bien plus claires et les limites mieux définies.
Tu resteras toujours dans mon souvenir pour ceci! Et bien d’autres aussi " />
De toute façon, à part ceux qui ne s’intéressent guère aux nouvelles technos, le nom de Motorola ne signifiait plus rien dans le mobile. Dommage d’ailleurs, ils en ont fait des téléphones.
C’est marrant comme certaines marques loupent certain virage alors qu’elles ont été pionnières sur leur segment.
Pour moi, le nom de Motorola restera surtout associé à ses fabuleux processeurs. Le 68000 était l’un des processeurs les plus agréables à programmer en assembleur. C’est vraiment dommage qu’Intel ait gagné avec ses x86.
C’est pas du tout un problème de gens bien ou pas de toute façon.
C’est comme pour a peu près tout, si tu accepte de donner des privilège à certain sans vrai limite et sans vrai contrôle, tu as nécessairement des gros abus.
Même les gens que tu pourrait considérer comme “bien” pourront se mettre à justifier ces abus pour je ne sais quel raison qui sortira de leur propre morale. Dans un système ou ces abus sont accepté, il n’y à aucune raison qu’une personne “bien” s’amuse à rajouter une couche de morale par dessus, d’autant plus qu’elle n’est pas toute seule, si la loi s’applique bien, la morale individuelle sur le groupe…
La plupart des gens se considère d’ailleurs comme des gens “bien”, je peut te parier que nombre de policiers qui défoncent les portes de personne complètement innocente pensent faire “ce qui est bien”, quitte à effrayer et blesser certaines personnes, ce qui est bel et bien l’inverse de la mission du policier.
C’est la même histoire pour nombres de type qui bossent à la NSA sur la surveillance de masse.
Tout à fait, tu as entièrement raison la dessus.
C’est d’ailleurs tout le principe d’un cadre légal de fixer les limites pour éviter que chacun n’applique sa petite définition personnelle plus ou moins arrangée en fonction de l’élasticité de sa conscience, de ses préjugés, de ses opinions voir de ses intérêts.
Comme tu le dit, sans cadre clair et absolu, la définition du “bien” peut glisser en fonction des intérêts personnels vers l’acceptation de mauvaises pratiques qui deviennent banalisées “parce que beaucoup le font”. On peut constater que dans certains pays du monde, la police est devenue complètement corrompue.
Et ce n’est pas parce qu’on donne un uniforme à un homme qu’il devient automatiquement immunisé des défauts inhérents à la nature humaine.
Le
09/01/2016 à
10h
47
127.0.0.1 a écrit :
Il vaut mieux des terroristes en liberté plutôt qu’une police qui outrepasse les lourdeurs de la justice.
ou pas.
En même temps, si il y a plein de bavures dans les banlieues, les islamistes pourraient vite en profiter.
Il est possible que c’est le genre d’escalade qu’ils recherchent.
En toute chose il est bon de se méfier de la précipitation..
Le
09/01/2016 à
10h
10
Jarodd a écrit :
Je n’ai pas parlé de détention préventive " />
Et puis même s’il n’y en a pas eu pour l’instant, on y arrive très vite. Sarkozy a conditionné son vote sur la réforme constitutionnelle au fait que (entre autres) « toutes les personnes fichées S portent un bracelet électronique ». Ca serait décidé sur soupçon, sans aucune condamnation. Et il y a pas mal de monde (dont le gouvernement) qui approuve cette idée.
(edit : je précise que détention ou bracelet électronique, pour moi c’est blanc benêt et benêt blanc, ça équivaut à une condamnation et une privation de liberté - qu’elle soit justifié ou non, là n’est pas la question)
Comme ça, les politiques pourront décider de manière arbitraire qu’une personne devra porter un bracelet électronique.
J’ose à peine imaginer à quoi ressemblera ce pays dans quelques décennies.
Et on ne compte plus les portes défoncées, les apparts dévastés, les coups et blessures pour intimider, juste parce que la police « a le droit ».
C’est marrant d’ailleurs que tout le monde imagine que la police c’est forcément que des gens bien et qu’il faut absolument leur donner tous les droits.
Bien sûr, comme partout, il y a beaucoup de gens très bien dans la police ( et encore heureux) .
Mais si les gens savaient combien il y a d’extrémistes complètement allumés qui ont comme rêve ultime de rentrer dans la police, ils comprendraient que notre pays peut assez rapidement très mal tourner si on fait disparaitre tous les garde fou sans un minimum de discernement…
Il est désespérant de constater la naïveté d’une grosse partie de la population, qui ne réagit pas face à la stratégie de MS qui est méprisante envers les usagers. Il y a une part obsolescence programmée du matos, via accord secret avec des fabricants (amd qui ne publie pas de pilotes pour ses radeon anciennes). Il y aussi une future arnaque sur les licences : de nombreuses personnes qui étaient de base sous seven, croiront être obligées d’acheter une licence 10 quand leur ordi aura méchamment planté dans quelques mois ou années. Egalement, l’abandon d’Office Starter, qui était GRATUIT.
Que font les associations de consommateurs ? rien.
Et pour finir, les pro-linux sont minables : non seulement ils ne disent pas que très peu de jeux sont dispos sur leur système, mais pire encore, ils mentent sur la stabilité (+ de bugs encore que windows) et les performances (pas + rapides que windows).
Ce message a été censuré par 01.net.
Pour qu’un troll fonctionne, il faut y aller en finesse, pas avec les moon boots…
Le
07/01/2016 à
18h
36
Mithrill a écrit :
Il me semble que ça avait gueulé au début, et maintenant que c’est au tour de MS on entend les même vierges s’effaroucher mais bon les entreprises s’en foutent vu que la plupart du monde se contrefout de donner ses données perso à tout vent… Facebook, Google, Apple, MS… et ce sera de plus en plus intrusif il n’y a pas à en douter, c’est pour le bien commun ! (ce qui n’est pas faux à grande échelle ça peux vraiment aider)
Ceux qui ne veulent pas de ça : GNU Linux par exemple et basta. Sinon compromis avec distri Linux + Steam etc.
C’est clair.
Microsoft n’a pas tellement le choix vu les croupières que lui ont taillé Apple et Google ces dernières années. Ils sont bien forcé d’évoluer dans le sens des logiques commerciales qui fonctionnent.
Et comme tu dit, pour tout ceux qui n’aiment pas les logiques du monde propriétaire, il y a le logiciel libre.
Le
07/01/2016 à
16h
44
corsebou a écrit :
A coup de mensonges, information déformée et démarches d’automation non voulue?
Et puis le débat n’est pas de savoir s’ils ont raison ou pas mais la manière dont ils le font.
On peut critiquer, mais il faut reconnaître que sur le marché grand public, il ne faut pas s’attendre à ce que les gens bougent d’eux même de manière intelligente.
En tant qu’utilisateur avancé, je n’aime pas leur méthodes. J’ai déja bloqués leur tentatives moisies mais cela ma pris du temps et des efforts.
C’est tout à fait logique que ça donne des boutons à des utilisateurs avancés.
Moi, ça fait longtemps que je suis sur Linux. J’utilise Windows marginalement pour les jeux et quelques utilitaires.
Mais il ne faut pas oublier que la majorité des gens ne sont pas des utilisateurs avancés et que cette com n’est logiquement pas faite pour nous…
J’ai Windows 7, je suis capable de prendre ma propre décision de le garder autant que je le souhaite. Surtout si les raison de migrer sont fallacieuses.
Les raisons de migrer sont t’elle vraiment si fallacieuses ?
Mais la question qu’on peut se poser, c’est de savoir s’il n’y a pas une divergence de plus en plus marquée entre les utilisateurs avancée et le grand public au point ou cela devient de plus en plus difficile d’utiliser le même système et de se voir appliquer la même com.
Le
07/01/2016 à
16h
09
Je pense qu’il faut reconnaître que Microsoft à raison de pousser les utilisateurs vers Windows 10.
Le business model de Microsoft évolue vers les services et c’est une excellente chose.
Le fait que tout le monde puisse avoir toujours le dernier Windows est une excellente décision qui diminuera significativement la fragmentation, permettra d’améliorer la sécurité ainsi que d’employer leurs développeur à meilleur escient que de gérer de multiples versions de Windows.
D’une manière générale, je suis assez surpris par Satya Nadella qui arrive visiblement à transformer une entreprise aussi importante que Microsoft en un temps record.
Dans le futur, je ne serais pas étonné de voir Microsoft amorcer un virage vers le logiciel libre.
Tant que tout ces systèmes ne seront pas complètement ouverts, munis d’un firmware libre et communicant avec des protocoles standardisés et ouvert, les gens passeront leur temps a devoir racheter à régulièrement leurs objets pour cause d’incompatibilités, d’évolution des protocoles ou de limitations diverses.
Donc personnellement, j’utiliserais uniquement des objets connectés que l’on peut créer et programmer soi même à partir de microcontrôleurs ouverts et de firmwares libres.
La majorité des logiciel nécessitant un contrôle des performance oui. Mais ces logiciels ne sont pas la majorité des logiciels produits, loin de là.
La majorité des progiciels de qualité ont un besoin de performance à un niveau ou à un autre.
Et toutes les entreprises qui font de bons progiciels ont des programmeurs qui savent optimiser.
J’ajouterais que dans notre société, l’impact des logiciels mal optimisés sur le confort de vie des gens est sous estimé.
Je me souviens parfaitement de l’époque entre les années 80 et 90 ou les vieux distributeurs de billet automatique ont été remplacés par des nouveaux beaucoup plus lent et des temps d’attentes que cela générait avec des énormes files d’attente.
Pas plus tard qu’hier j’était dans un magasin : leur système informatique ramait, ce qui fait que les clients attendaient plus d’une demi heure.
A tous les niveaux de la société, ces programmes mal optimisés nous pourrissent la vie et coûtent de l’argent à ceux qui pensaient économiser sur la qualité…
Et Visual Studio a beau être en C++, je le trouve pas plus réactif qu’Eclipse.
Je ne pourrais pas te certifier que les versions récentes de Visual Studio sont encore codées en C/C++.
Mais il n’y a pas que ces deux IDE pour comparer…
Sauf que le temps que le langage passe réellement à générer une page web est en général bien inférieur au temps consommé dans les IO et les accès à base de données.
Sauf qu’il y a des solutions techniques à cela. Y compris dans certains cas pour se passer complètement ou partiellement de la base de données.
Un programmeur qui sait optimiser te trouvera les solutions adaptées à chaque cas de figure.
Et sans aller jusque la, simplement déjà de savoir bien optimiser les requêtes, éviter de les multiplier quand c’est inutile, bien configurer sa base de données et les index de ses tables, etc….
Tout comme en Java on peut utiliser d’autres langages pour les parties critiques. Bref ni le C ni le Java ne sont parfait et peuvent être complémenté, on est d’accord.
Sauf que les bons compilateurs C/C++ permettent d’intégrer de l’assembleur directement dans le flux du code et non pas comme un module.
Cela dit, le fait de mixer les langages peut être une excellente solution dans certains cas de figure.
Non, loin de là. Optimiser les temps d’IO c’est très important, et c’est très souvent le premier goulet d’étranglement y compris en bas niveau.
Si je suis d’accord que l’optimisation des temps d’accès est extrêmement important, il faut réaliser que cela ne se limite pas à la mémoire de masse.
Parce que quand un bon programmeur arrive à se débarrasser du problème des accès disque, par exemple en implémentant un cache en RAM, le goulet d’étranglement suivant, c’est la vitesse d’accès aux données en RAM.
Et un langage comme Java, avec son “Bound Checking” imposera toujours des limitations la dessus.
D’ailleurs, le problème, c’est que le programmeur de SS2I courant a une vision complètement fausse et biaisée du problème pour la simple raison que la très grande majorité des programmes qu’il écrit utilisent des bases de données.
Dans d’autres domaines de l’informatique qu’il méconnaît, c’est exactement l’inverse. Pour de nombreuses catégories de logicielles, c’est plutôt l’accès à la mémoire vive qui est le goulet d’étranglement principal.
Oui tu as raison les gens qui font du C++ sont peuvent travailler sur des applications noble et peuvent bien heureusement se permettre de chier sur les gens des SSII (qui pour ta gouverne peuvent aussi faire C++).
Je pense que je vais arrêter la discution là. J’ai à peu près cerné le niveau d’ouverture de ton point de vue.
L’erreur, c’est de prendre une critique sur un langage comme un affront personnel pour les programmeurs qui les utilisent.
Pour ma part, je n’ai jamais pensé qu’il existerait une noblesse particulière à utiliser un outil plutôt qu’un autre ou à réaliser un type d’application plutôt qu’un autre.
J’aurais d’ailleurs tendance à penser que ce n’est pas les bons outils qui demandent le plus de talent.
Comme tous les programmeurs, dans ma vie, j’ai fait de tout. Et surtout, je ne programme pas qu’en C/C++…
Le
06/01/2016 à
16h
14
psikobare a écrit :
personne n’en a rien dit :)
en fait, j’ai cru voir certains dire que le C/C++ serait l’éternel champion, mais j’émets de gros doute là dessus
non pas que je pense qu’il disparaisse, mais sa popularité pourrait baisser plus vite qu’on ne le pense, et, selon moi, rust et go sont les langages qui vont lui prendre le plus de part (dans des catégories différentes)
Personne n’a jamais dit que le C/C++ restera éternellement le champion de sa catégorie.
Mais pour l’instant, force est de constater que ce langage est bien parti pour le rester.
Ce qui fait l’inouïe longévité de C, c’est qu’il n’a jamais existé de vrai concurrent qui cherche à améliorer ce qui fait sa force.
Le problème, c’est que les concurrents n’ont (hélas) pas compris ce qui fait le succès de C/C++. Ils cherchent à le concurrencer en apportant plus de features et en apportant des solutions déterminées à des problèmes donnés ou à rendre la programmation plus simple.
Or, c’est tout ce qu’un programmeur C/C++… ne recherche pas.
Ce qui fait le succès de C/C++ dans la programmation avancée, c’est le fait que ce langage permet une énorme souplesse et de faire quasiment ce qu’on veut avec un maximum de contrôle à bas niveau pour implémenter SES propres solutions comme on le désire.
Pour détrôner C/C++, il faut arriver à faire mieux sur ses points forts. En d’autre terme, faire mieux en terme de contrôle à bas niveau et de souplesse du langage.
C’est possible (et nous en rêvons) de voir un jour un concurrent. La partie C++ pourrait être améliorée sur le plan du contrôle à bas niveau. Mais à conditions que les créateurs de langage ne se trompent pas direction.
Le
05/01/2016 à
16h
50
Uther a écrit :
On est d’accord mais c’est très loin d’être le cas de la majorité des logiciels produits.
Oh que si.
La très grande majorité des grands logiciels sont écrit en C/C++ ainsi que les Os et leurs diverses couches.
Et quand un logiciel est écrit en Java, par exemple Eclipse, cela se sent tout de suite…
Je code pour répondre au besoin, on optimise là ou c’est nécessaire. Les performance de Java sont plus que suffisantes pour que la différence avec du natif ne soit pas sensible sur les applications Web ou de bureau qui ne demandant pas une réactivité de l’ordre d’un OS / Jeu / Browser / …
C’est une idée reçue fortement répandue, mais elle est malheureusement fausse.
Il suffit pour le comprendre de voir l’inconfort que l’on ressent sur tous ces sites web qui rament et ces logiciels trop lents.
L’idée reçue viens du fait que le gros d’une application a rarment besoin d’optimisation. Ce que certains interprètent à tort comme le fait que l’optimisation serait inutile.
Sauf que tout le confort d’un logiciel peut reposer parfois sur quelques lignes de code…
Pour info, dans certains logiciels, on utilise encore l’assembleur pour certaines parties critiques.
En général ce qui ralentit ces applications c’est surtout l’accès aux données.
Sauf que cela n’est vrai que dans un seul type de logiciels.
Toutes non, mais dans beaucoup d’application, le goulot d’étranglement des performances n’est pas la vitesse intrinsèque du langage mais les entrées-sorties et dans l’écrasante majorité des applications d’entreprise c’est le réseau et la bases de données.
Rectifions : Dans la majorité des aplications d’entreprise que le pisseur de code en SS2I est amené à écrire.
Parce qu’heureusement que la base de données et l’Os sont écrites en C/C++ et pas en Java.
Ajoutons que ce qui est vrai dans ce type d’application particulière est un cas rare dans les applications desktop en général : Exemple logiciel comme photoshop.
Mais là tu fais toi aussi abstraction de l’électronique qui au au final aussi instructive pour celui qui fait de l’assembleur, que l’assembleur a celui qui fait de la programmation de haut niveau.
( Semi " /> )
La dessus, tu as parfaitement raison. Faire de l’électronique me semble également indispensable.
Le
05/01/2016 à
16h
22
33A20158-2813-4F0D-9D4A-FD05E2C42E48 a écrit :
Et tout cela reste encore à relativiser par les accès base de données. C’est bien joli d’avoir un langage super-optimisé-de-la-mort-qui-tue, mais dans une majorité d’applications “business” ça reste bien les accès base de données qui sont le facteur limitant. Même si on arrivait à optimiser la boucle de chargement des données à un unique REP STOSW en assembleur, on ne gagnera pas grand chose vu que le serveur a dû consulter les index, rechercher dans les caches, lire des blocs, assembler les données, etc. L’impact en performances d’utiliser un langage “moins efficace” pour parcourir les records une BDD s’efface par rapport à la simplicité d’écriture.
Dans la majorité des cas de logiciels personnalisés de gestion d’entreprise traitées par les SS2I, c’est effectivement la base de données qui est le facteur limitant.
A l’inverse, dans les logiciels et les système d’exploitation, ce cas est plutôt rare.
Il y a donc bien deux philosophies différentes.
Le problème, c’est quand l’une déborde sur l’autre…
Cela étant dit, il y a parfois des interfaces qui rament et ce n’est pas de la faute de la base de données.
Par ailleurs, les langages fonctionnels sont très pratiques pour décrire des bases de règles et des validations de données (si la facture contient au moins trois produits du rayon brico, alors le taux de TVA est de 6%), beaucoup moins pour faire du transactionnel. Le grand avantage est que l’absence d’effets de bord fait que … hé bien un calcul ne peut pas avoir d’effet de bord, justement, et donc compromettre l’intégrité d’autres données. Très pratique quand c’est l’utilisateur final qui peut spécifier ses règles.
Les langages fonctionnels sont un objet d’étude intéressant, voire indispensable. Comme l’assembleur qui vous apprendra le “bas niveau”, c’est un objet d’étude qui vous apprendra des choses sur la programmation de haut niveau. Mais comme l’assembleur, ce n’est pas un outil pratique au quotidien.
Ne vous laissez pas bluffer par ceux qui annoncent l’éternelle révolution des langages fonctionnels, ça fait plus de 50 ans qu’ils font la révolution…
Le
05/01/2016 à
15h
28
EMegamanu a écrit :
Traduction foireuse. Un projet en C ne répondra pas aux même besoins qu’un projet en Java, et inversement.
Je n’ai jamais prétendu le contraire. Si tu relis mes premiers commentaires, c’est bien précisé.
L’informatique, ce n’est pas un langage unique et merveilleux, mais le bon langage pour le bon usage.
Je t’invite par exemple à réaliser en C une application distribuée sur des serveurs d’applications, avec interfaces web et/ou mobiles, gestion de la généricité
Pour avoir créé quantité d’applications multiplateformes en C/C++, je ne vois pas le problème.
Il suffit de regarder comment une distribution Linux gère cette problématique avec des fermes de compilation.
et sans ce que le développeur n’ait à s’occuper de la mémoire ni de recompiler le projet selon la plateforme.
La gestion de la mémoire, il y a du pour et du contre. Et le pour, c’est qu’une gestion personnalisée de la mémoire est un élément essentiel dans l’optimisation.
Quand à recompiler un projet pour différentes plateformes, en pratique, ça n’a jamais été un vrai problème.
Tu vas vite te rendre compte que .Net et Java sont les environnements les plus adaptés.
Oui, ce sont bien les environnements les plus adaptés au développement rapide et low cost qui correspond au logiciel personnalisé courant en entreprise.
La qualité de ces logiciels est logiquement basse. Les couts et la rapidité de développement sont les élément essentiels.
La ou je suis plus choqué , c’est de voir ces langages sur des logiciels de grande diffusion, voire dans un Os partagé par des millions de personnes.
Pour ma part j’irai plutôt prendre du C pour de l’embarqué, pour un développement rapide avec utilisation d’API systèmes, etc.
Globalement, le C/C++ est utilisé partout ou l’on désire un programme optimisé et de qualité.
Mais cela ne signifie pas pour autant que tout doit être programmé dans ce langage qui est plus adapté aux progiciels à longue durée de vie qu’a de la programmation rapide et pas chère.
Après tu voulais peut être parler du C++ qui même des avantages des deux (POO et accès système), mais toujours pas adapté pour l’exemple que je viens de donner.
Euh, si on parle des possibilités, il y a tellement de choses que C/C++ peut faire et que Java ne peut pas que la comparaison ne tient pas un instant.
Tu peux donc ranger ton troll. " />
Le fait qu’un langage comme java impose le bound checking, ne propose même pas de type entier non signés et ne permet même pas la surcharge des opérateurs, ce n’est pas un troll…
Et je ne parle même pas de certaines inepties d’écriture.
Même pour faire du développement rapide, Java est à jeter. C# est bien meilleur…
Et troll-poof : la qualité du code n’est pas inhérente au langage mais aux développeurs. ;)
Sauf que le meilleur développeur du monde ne pourra jamais compenser certaines limites de certains langages. Certaines limites sont réellement irrémédiables…
Le
05/01/2016 à
15h
00
Uther a écrit :
…
Bien évidement! L'optimisation inutile et le débogage évitable, ça coûte cher.
Quand il s’agit de choses vendues à des millions d’exemplaire, l’optimisation n’est pas inutile et le surcoût pas significatif.
D’ailleurs, un Os comme Linux et la majorité de sa logithèque sont codés en C/C++…
Il suffit de se servir…
Pour une grande majorité des programmes dont ont besoin les entreprises, l’optimisation a tous les niveaux n’est pas nécessaire. Le plus souvent optimiser les accès à la base de donnée est amplement suffisant. Avoir rapidement quelque chose qui marche bien est bien plus important.
Qu’une application de gestion d’entreprise faite sur mesure soit codée en Java ne me choque pas. Par contre, sur un device vendu à des millions d’exemplaires…
Après si tu code uniquement pour la beauté et la performance du code ok, mais je ne suis pas sur que tu trouve beaucoup de patrons qui acceptent de payer pour ça.
Après, si tu codes uniquement pour pondre des programmes low cost…
Je rencontre au quotidien un bon paquet de “devices” et de programmes qui auraient bien besoin d’optimisation. Et cela sans parler des smartphones et de leurs applications.
Parfois, je me marre en constatant qu’on faisait des trucs plus fluides sur des 8 bits à 1Mhz il y a plus de 30 ans…
Le plus souvent optimiser les accès à la base de donnée est amplement suffisant.
Toutes les problématiques en informatique ne tournent pas autour de cela.
Donc tu préconise dans l’apprentissage des science physiques d’apprendre la relativité générale avant de pouvoir introduire la gravité dans la mécanique Newtonienne? Parce que la gravité ne s’explique correctement qu’avec la relativité générale. Mais tu retrouveras les 3⁄4 de tes étudiants pendus si tu commence par ça.
Sauf que la relativité générale demande d’apprendre une palanquée de notions avant de pouvoir être comprise.
A l’inverse, faire de l’assembleur ne demande que de maîtriser l’addition et la soustraction.
Dans la pratique, un élève de niveau 6eme s’en sors très bien.
Pour info, je préconise un apprentissage du bas niveau sérieux pour tous les étudiants car c’est important. Mais il n’est pas nécessaire, de le faire en premier (bien que tout a fait possible). Les notion d’algorithmes sont bien plus utiles pour apprendre l’assembleur que l’inverse.
Je n’ai pas prétendu qu’il serait forcément nécessaire de le faire en premier. Juste que cela ne doit pas être abordé trop tard.
Je ne fais pas de hiérarchie par rapport à l’algorithmique, pour moi ces deux notions sont nécessaires.
Le
05/01/2016 à
00h
05
CounterFragger a écrit :
Personnellement, j’ai réellement commencé la programmation avec le C (avec un peu de Pascal quelques années auparavant). C’est parfait pour apprendre la gestion de la mémoire et largement assez bas niveau pour débuter. Plonger les mains directement dans de l’assembleur n’aura pour seul résultat que d’embrouiller un débutant.
Embrouiller ?
Un petit microprocesseur, c’est quand même autrement plus simple qu’un compilateur C/C++…
Et la notion de pointeur qui pose tant de difficultés aux débutants en C/C++ est tellement plus simple et évidente à comprendre dans le cadre de l’assembleur…
Le
05/01/2016 à
00h
00
hurd a écrit :
C’est vrai que c’est curieux, perso, j’ai fait plus ou moins le chemin inverse : Java -> C -> Assembleur.
Tu notera qu’a l’école, on t’apprends d’abord à compter et à faire les opérations manuellement avant de te laisser te servir d’une calculatrice. Et ce n’est pas un hasard…
Programmer en Java sans comprendre ce qu’est une référence ou un objet, c’est apprendre tel quel des façons de procéder sans rien comprendre à ce qui se passe ni a leur raison d’être. Et pour beaucoup, c’est une difficulté plus qu’autre chose.
Mais bon, je ne prétends pas qu’on doive absolument éviter tout langage évolué et commencer absolument par de l’assembleur. Je pense qu’il faut plutôt procéder à des aller retour entre les langages.
Le
04/01/2016 à
23h
40
hurd a écrit :
C’est vrai que c’est curieux, perso, j’ai fait plus ou moins le chemin inverse : Java -> C -> Assembleur.
Et si l’assembleur et surtout toute la connaissance des processeur qui va avec est quelque-chose de super intéressant qui peut devenir utile pour tout programmeurs, j’ai un peu peur que de commencer par cela soit
d’une part très décourageant
Pas si on commence avec un truc qui permet de faire facilement des trucs très vraiment sympa et concrets en assembleur…
C’est sûr que si tu demande à un débutant d’écrire un programme courant en assembleur x86, faut pas oublier de lui donner une corde avec…
pour la personne et d’autres part susceptible d’amener des mauvaises pratiques.
Oui, si l’on se contentait de n’apprendre que cela, mais ce n’est bien sûr pas le but.
En réalité, ce qui amène à de mauvaises pratique, c’est une connaissance incomplète.
Ça me paraît plus simple de faire comprendre à quelqu’un qu’il doit penser à quelque-chose de plus dans un nouveau langage, que l’inverse.
Sauf que dans un langage évolué, il y a mine de rien beaucoup de choses qu’un débutant ne comprends pas.
Cela dit, je ne voulais pas dire que commencer absolument par l’assembleur serait primordial. Mais dans l’idéal, ce langage ne doit pas être non plus abordé trop tard.
En pratique, un bon enseignement ça ne sera pas de passer beaucoup de temps sur un langage avant de passer à un autre, mais plutôt des aller-retour entre différents langages et paradigmes.
De plus, l’assembleur est vraiment un langage à part. C’est un langage qui t’apprend à peut près tout ce que tu ne dois pas faire dans les autres, mais ici c’est autoriser.
Oui, c’est amusant de réaliser en quoi est traduit tout le beau code structuré qu’on écrit " />
Faut pas utiliser de Goto qu’ils disaient " />
Le
04/01/2016 à
23h
12
Zerdligham a écrit :
" /> C’est quoi l’intérêt de commencer par l’assembleur??
Je veux dire à part frimer devant les filles en leur racontant comment on est un vrai, un dur.
En apprenant le langage machine, tu acquiers la compréhension de la façon dont fonctionne réellement un ordinateur. Sans cela, de nombreuses notions resteront incomprises.
Ensuite, ça permet de comprendre comment un langage de haut niveau est traduit en langage machine et comment fonctionnent les mécanismes des langages de programmation. Ici aussi, cela permet de comprendre beaucoup de choses, d’appréhender beaucoup de phénomènes et surtout au final, d’améliorer radicalement sa qualité de code.
Un programmeur qui ne maîtrise pas le fonctionnement d’une machine à bas niveau écrit souvent n’importe quoi sans s’en rendre compte car il ignore ce que le compilateur génère en fonction de ce qu’il écrit.
Le langage machine peut nous sembler inutile car nous ne le voyons pas souvent. Sauf que le microprocesseur ne sait exécuter que cela. Et tout ce que nous écrivons doit être traduit d’une façon ou d’une autre dans ce langage…
Le
04/01/2016 à
22h
47
EMegamanu a écrit :
Merci aux INpactiens de ne pas considérer Java uniquement pour les (dépréciés) applets.
Je pense que vous ne vous rendez pas compte de la qualité de matériels et services basés sur ce langage et ce runtime que vous utilisez (sites, téléphones, équipement multimédia…) et qui seraient impossibles ou autrement plus compliqués ou plus chers à mettre en oeuvre dans d’autres technologies.
Traduction : Si on avait fait coder ça en C, ça aurait été plus rapide et mieux optimisé, mais ça aurait coûté un peu plus cher…
Commentaire_supprime a écrit :
Donc, si je veux apprendre la programmation moderne, je commence par le Java et, quand je suis au point, je passe au C (C++ pour Tux en ce qui me concerne) et je pourrais alors prétendre, modulo le niveau effectif de mes compétences au-delà du “hello world” de base, m’y connaître en programmation ?
Non, si tu veux VRAIMENT apprendre à programmer correctement, tu fait d’abord de l’assembleur, ensuite du C/C++, éventuellement un peu de langage fonctionnel. Et le tout en étudiant les effets à bas niveau de ce que tu écrit.
Et ensuite tu pourra éventuellement pisser du code dans n’importe quel langage sans écrire n’importe quoi…
Créer une communauté est très difficile mais on peut réunir des gens qui veulent y participer. Peut-être qu’ils n’en voudront pas, soit. Mais j’ai vu quelques initiatives superbes, genre des fournisseurs de paniers bio pour les étudiants, ensuite ils ont décidé de construire un potager ensemble avec l’aide d’un agriculteur. On en parle rarement, j’ouvre un journal ya des trucs people avec Flambly et Vrac, des trucs sur le monde, des sorties mais ça manque cruellement de…découvertes, de citoyens, de notre ville, il manque notre voix. L’avenir n’est pas forcément d’avoir un boulot et d’être le soutier du Titanic, on s’est mis plein de bâtons dans les roues pour limiter notre liberté car en réalité rien ne nous l’interdit. Vie active ? Dès l’instant où je suis né, je suis déjà dedans.
L’idée du panier Bio pour les étudiants, c’est malheureusement le type même de la “bonne idée” qui aboutit la plupart du temps à une entreprise en faillite au bout de quelques mois.
Beaucoup d’initiatives seraient possibles, sauf qu’aujourd’hui, tout cela se heurte au problème de la sacro sainte rentabilité économique.
Le
06/01/2016 à
00h
35
HarmattanBlow a écrit :
Le temps partiel doit devenir la norme. Cela répondra à l’automatisation croissante, on peut le compléter par un impôt négatif et son faible usage en Franceexplique une bonne part de nos chiffres du chômage.
Cela peut être une solution.
Mais les politiques ont plutôt poussé dans le sens contraire, c’est à dire des heures supplémentaires (travailler plus pour gagner plus).
Mais le temps partiel pose aussi des problèmes de rentabilité car l’investissement en formation est très mal rentabilisée par rapport à des temps complets.
Et j’insiste : mieux vaut insérer les gens avec un boulot qui paie peu que les laisser s’enferrer dans l’inactivité et tomber au RSA.
Sauf que l’idée que les gens tomberaient forcément dans l’inactivité est juste une idée reçue.
Dans la vie, il y a quantité de moyens de créer de la valeur.
Ce n’est pas parce que comptablement parlant, une personne ne produit pas de valeur marchande par rapport au système commercial que pour autant elle ne produit rien.
Les politiques manipulent l’opinion avec leurs discours sur l’assistanat car c’est la facilité d’exploiter les jalousies de ceux qui travaillent(et souvent trop) et qui imaginent facilement que les RMIstes ont la belle vie.
Premièrement je ne crois de toute façon pas que les français soient prêts à quitter l’EU. Donc mieux vaut tabler sur le fait que nous allons rester et que les problèmes vont s’aggraver.
C’est malheureusement ce qui risque d’arriver. La faillite du pays est au bout du chemin…
Ca ne sera pas beau à voir…
Je crois qu’on peut déjà commencer à étudier les manuels de survie écrits par les argentins…
Ensuite avec l’EU, tu crèves si tu restes, tu crèves si tu sors. Parce que c’est notre premier bassin d’exportation, nos premiers concurrents, que nous avons cinq fois plus besoin d’eux que l’inverse et qu’ils ne vont pas nous laisser gentiment faire.
Non, nous ne crèverons pas si nous sortons. Et cela pour une raison très simple, c’est qu’une économie peut toujours partager ce qu’elle produit sur son sol. Et tant que nous sommes capables de produire suffisamment de nourriture et de médicaments, le reste peut toujours se reconstruire avec le temps.
De plus, nos partenaires ont autant besoin de nous que nous avons besoin d’eux. Et il n’y a pas de raison que nous nous portions plus mal que des pays comme la suisse qui ne sont jamais rentré dans l’Euro.
* On dévaluera ? Ils nous le feront payer.
Dévaluer nous ouvrira aussi de nouveaux marchés.
* On appliquera des mesures protectionnistes ? Ils nous le feront payer.
Mais nous n’en mourront pas contrairement à ce qui arrivera si nous restons dans l’Euro.
Il y a bien des pays sur terre avec qui commercer.
D’autant que s’ils veulent nous punir, nous pouvons également les punir dans la mesure ou nous produisons aussi en France certains produits nécessaire à leurs entreprises.
Je pense que logiquement, tout le monde s’en tiendra au statu quo…
* On quittera l’EU et déstabilisera la construction européenne ? Ils voudront faire un exemple.
Alors il faudrait céder à la peur ?
Et donc attendre que notre industrie périclite et que notre population crève ?
Est ce qu’après nous serons plus avancés pour quitter l’Europe ?
Une économie qui ne fonctionne pas, c’est de toute façon la mort à moyen terme ou long terme.
Revenir à une économie nationale, même si nous subissons quelques inconvénients est le seul moyen de retrouver une économie qui fonctionne.
J’aimerais rappeler aux catastrophistes que notre marché ne pourra jamais avoir moins que ce que nous produisons. Et en France, nous produisons encore l’essentiel. Mais si nous attendons, il arrivera un jour ou cela ne sera plus le cas.
Avec le temps et le manque de moyen, notre défense nationale se délite doucement mais sûrement.
Attendre, c’est la certitude qu’un jour notre pays deviendra vulnérable.
* Nos exportations seront boostées par un franc plus faible ? Mais ceux exportant vers la zone euro préféreront s’installer en zone euro où sont leurs sous-traitants et clients pour ne pas avoir de problèmes de change.
Ceux qui exportent vers la zone euro préfèrent surtout produire en chine ou en inde.
A part quelques exceptions, rien n’est localisé en Europe.
* Nous serons toujours forcés d’appliquer leurs normes pour exporter chez eux et de signer des accords transatlantiques pour lesquels ils pèseront plus que nous sur les négociations.
Sauf que dans l’Europe, non seulement nous subissons ces normes, mais en plus nous les subissons jusque sur notre propre sol.
Quand une norme européenne est venue subrepticement interdire la pompe unique qui était la base du système hydraulique Citroën, cela montre a quel point nous arrivons à peser sur ces normes et à quel point elles nous avantagent.
* L’EU ne faisait rien contre le dumping chinois ? Nous ne pourrons probablement rien faire contre le dumping chinois.
Bah si, taxer au niveau qu’il faut pour qu’on puisse éventuellement produire la même chose sur notre sol.
Que feront les chinois ? Cesser de nos commander des airbus ? De toute manière, les contrats avec eux ne sont pas rentables (souvent, on doit accepter des transferts technologiques). Et de toute manière, d’ici quelques années, ils les produiront eux même.
Mieux vaudrait détruire l’EU. Dans tous les cas il faudrait un sacré stratège à la tête de la diplomatie française. De toute façon ce n’est qu’une part de la solution, les problèmes de la France ne se limitent pas à l’EU.
C’est certain.
Mais sans un retour a des fondamentaux économiques plus sains, aucun futur n’est possible, aucune résolution des autres problèmes ne sera envisageable.
Le
05/01/2016 à
23h
34
Guyom_P a écrit :
Le coup de l’automatisation qui réduit le travail humain j’ai toujours eu du mal à y croire. Pour une installation employant 2 ou 3 opérateurs à la chaine remplacé par une installation automatisé c’est plusieurs mois d’études, de conception, d’essais, de mise en service et compagnie mobilisant des équipes d’ingénieurs et technicien dans différents corps de métier (électricien, automaticien, monteur, mécanicien….). Tout ça aussi bien côté prestataire que côté client. Oui le métier de simple ouvrier est en voie de disparition mais il est juste remplacés par tout un tas de métier et puis les machines ont besoin d’être humain pour être surveillé, mise en route, maintenu et reparé.
Si le ratio entre le nombre de personnes remplacé et le nombre de personnes qui travaillent à l’automatisation n’était pas important, on ne payerait pas des ingénieurs pour remplacer des ouvriers en plus de devoir payer de coûteuses machines.
Ca ne serait tout simplement pas rentable et donc personne ne le ferait.
Cela n’est financièrement possible que parce que le ratio est justement très important.
Quand on constate que même des grandes multinationales qui font fabriquer dans les pays les moins chers du monde sont en train de mener des plans de robotisation massive, c’est bien la preuve que les robots sont incommensurablement plus rentables que les humains, même aux tarifs les moins chers du monde.
Et pour vous donner un ordre d’idée, dans l’agriculture, avec la mécanisation, nous sommes passé de plus de 60% de la population à moins de 2%. Et je doute fort que l’activité des constructeurs de tracteur ait compensé cette perte.
Donc oui, les métiers dans l’informatique et l’automatisation qui compenseraient les emplois perdus, c’est juste un grand mythe.
Il faut également réaliser que tout le monde n’a pas la capacité de devenir ingénieur.
Le
04/01/2016 à
22h
02
HarmattanBlow a écrit :
Mais pendant les trente dernières années on a tout essayé :
* Des efforts sur les bâtiments et l’entretien. Tout a brûlé.
* Des implantations d’entreprises et administrations aux voisinages des quartiers. Tout a brûlé.
* Des subventions aux associations et une police de proximité. Résultats tangibles mais insuffisants.
* Des crédits éducatifs doublés. Résultats tangibles mais insuffisants.
* Des rénovations architecturales. Les personnes s’y sont opposées, paraît-il qu’on détruit les communautés.
Peut être que les jeunes attendent sans doute autre chose. Par exemple qu’on leur propose un avenir crédible, un travail décent et une vie “comme tout le monde”.
Pas juste qu’on repeigne leur immeuble avec des couleurs vives et autres mesures démagogiques “poudre aux yeux”.
Affrontons la réalité : il faut détruire ces pièges communautaires, ça ne rend service ni à ceux qui y vivent ni aux autres. On reconstruit des hlm ailleurs, éparpillés sur toute la ville, fragmentés dans des quartiers où l’on réussit, on y reloge les gens et on démolit les anciens bâtiments. Il n’y a aucune autre solution ; le communautarisme ne fonctionne pas.
Effectivement. Les ghettos qui concentrent la misère et les problèmes de société n’ont jamais rien produit de bon.
Cela dit, a l’époque du plein emploi, il n’y avait pas tout ces problèmes dans les zones HLM…
Ensuite on coupe la vanne au financement de mosquées (financements étrangers fondamentalistes, subventions illégales des mairies pour de soi-disant activités culturelles). Parce que ces mosquées sont des appeaux communautaires (le quartier devient rapidement à dominante musulmane). Et parce que partout où il y a de la religion le fondamentalisme est présent et que plus on renforcera les religions, plus on renforcera le fondamentalisme. Et même si le fondamentalisme n’est encore qu’une large minorité, il pourrait bien devenir une grosse majorité (Malek Boutih : génération radicale).
Le problème, c’est que si on supprime les mosquées officielles (dont l’enseignement au grand jour peut être facilement contrôlé), il se créera ipso facto des mosquées dans les caves qui pourront alors enseigner n’importe quel fondamentalisme.
Il est certain que les islamistes n’attendraient que ça…
J’ajoute qu’on a voulu détruire la France pour fonder l’Europe, en la privant de ses pouvoirs, donc en stérilisant une démocratie devenue impuissante, sans la remplacer par autre chose puisque l’on croit autan en l’Europe qu’en Burger King. Et qu’on n’a cessé de s’auto-flageller en rabaissant la France (ce qui n’a rien à voir avec le rejet de la tartufferie patriotique chère la droite). Il ne faut pas alors s’étonner que des jeunes se tournent vers la religion, faute d’offrir une autre communauté.
Plus simplement, il me parait essentiel de redonner aux jeunes un vrai rêve d’avenir dans une nation unie.
Enfin sans économie dynamique pas de miracle. Mais ça on ne le verra plus en Europe durant les décennies à venir. Le mieux que l’on pourra faire c’est offrir des emplois chiches et précaires - ça vaut toujours mieux que pas d’emplois du tout.
Non, il faut s’enlever tout de suite cette idée de la tête.
Ne pas donner un avenir décent à une partie importante de la population, c’est juste irréaliste et impossible. Il y a juste 100% de chance d’aboutit à long terme à une guerre civile.
Pour bannir la précarité, il faut d’urgence sortir de l’Europe, dévaluer notre monnaie et reconstruire notre système en tenant compte du fait que l’automatisation réduira toujours plus le travail humain et que tout le monde doit conserver une vie décente.
Le
04/01/2016 à
16h
30
Guyom_P a écrit :
Ha donc pour ils décrètent que jusqu’au 25 février il est urgent de réagir à une attaque qui a eu lieu il y a presque 2 mois mais à partir du 26 février c’est plus urgent.
Le 26 février on est safe alors? lol
Avec comme seul but de déstabiliser notre pays (je sais plus qui parler que ce ne sont pas des armées voulant nous envahir vu qu’ils n’ont pas les moyens de le faire mais des groupes voulant détruire les pays en les poussant à la division et la guerre civile) qui n’est déjà plus très stable vu les rapports entre le gouvernement et la population il y a fort à craindre qu’ils vont bien attendre après le 26 février pour refrapper histoire de jouer sur la fracture entre le gouvernement et les français.
Effectivement, les islamistes n’ont pas beaucoup de stratégies possibles pour attaquer des pays aussi fort que le sont les pays occidentaux. La seule vraie possibilité, c’est d’arriver à nous déstabiliser de l’interieur.
Je pense que leur stratégie, c’est de créer la peur qui engendrera la banalisation de moyens d’exception.
Les moyens d’exceptions engendreront de nombreux abus sur le terrain(parce qu’en pratique, ils seront détournés et utilisés pour toute affaire banale), ce qui va accroître de fait la fracture sociétale avec la jeunesse des banlieues.
Ensuite, les islamistes n’auront plus qu’a récolter ces jeunes révoltés et leur faire commettre des actes qui perpétueront le cercle vicieux… jusqu’à la guerre civile.
C’est un schéma d’une grande simplicité qui as déjà été utilisé de nombreuses fois avec succès contre l’occident (Vietnam, Algérie, etc….).
Je suis vraiment surpris qu’on puisse tomber dans un piège aussi évident…
Un bon webmaster ne crèvera pas de faim. Mais je suis d’accord pour dire qu’en agence de comm, les jeunes développeurs manquent souvent d’expérience et de recul, et font parfois (et même souvent) n’importe quoi…
C’est bien pire que ça. Faire n’importe quoi, c’est la seule voie rentable dans le domaine du web.
Le web, c’est le domaine du grand bricolage et du gadget qui brille.
Ensuite, c’est au client de savoir avec qui il travaille et ce qu’il achète.
Ca tombe mal, parce que c’est justement ce qu’ils sont le moins capables d’appréhender.
Un logiciel de qualité et l’idée qu’un client se fait d’un logiciel de qualité sont deux choses différentes.
Côté Firefox OS, viser un OS full web n’est pas débile du tout, et Mozilla a prouvé que techniquement, ça marche.
Oui, techniquement ça marche. Mais la n’est pas la question.
Le problème, c’est qu’un Os, ça ne peut pas se contenter de faire tourner un langage unique.
Dans l’informatique, chaque langage a ses forces et faiblesses.
Mais quelque part, tous les langages sont nécéssaires…
En outre, l’avantage de développer en full web reste qu’on peut adapter le programme facilement à d’autres appareils.
Sauf qu’il n’y a pas besoin qu’un Os soit “javascript-only” pour faire cela.
Enfin, j’ajouterais que même des langages natifs tels que C++ permettent de faire tourner ses programmes assez facilement sur de multiples appareils grâce à des framework.
Quand un programme est conçu au départ avec cette optique, c’est relativement facile.
L’inconvénient est qu’on n’est plus limité en accès bas niveau.
Au contraire, tu est condamné à subir des limitations par le fait même que Javascript est un langage limité par ses performances et ses possibilités.
Bref, ça dépend jusqu’où on veut aller. Mais la vision de Firefox OS n’est pas incohérente côté grand public, car elle suffit finalement à la grande majorité des usagers.
Ca c’est la vision du marché en 80⁄20 qui ne fonctionne que dans le monde commercial…
Pour résumer, on vise le plus gros du marché pour faire le maximum de revenus et on oublie les besoins de ceux qui sont plus minoritaires.
Et la qualité, le grand public s’en fout. Pour s’imposer, c’est juste une question de gros moyens pour toucher directement le consommateur à grand renfort de pub et de marketing.
Quand tu n’as pas les moyens parce que tu ne t’appelle pas google, Apple ou Microsoft, qu’est ce qu’il te reste comme choix ? C’est simple, le bouche à oreille.
Et le seul bouche à oreille qui fonctionne bien, c’est celui qui passe par les prescripteurs, c’est à dire des personnes instruites qui vont conseiller les autres et parler des produits qu’ils trouvent intéressants.
L’ennui, c’est que dans le monde du logiciel libre, ces personnes sont souvent des programmeurs.
Et un programmeur, çà veut toujours SON langage préféré.
Voila pourquoi dans le libre, un Os qui ne permet pas de faire tourner tous les langages n’aura jamais la moindre chance de succès.
Le problème de Firefox OS est plutôt sa visibilité, et le fait que commercialement, la fondation n’a effectivement pas la puissance commerciale d’un géant pour menacer le cartel en place, surtout en Europe où l’on peut vendre n’importe qu’elle merde à des gens qui n’y comprennent rien.
Tout à fait.
Mais ça c’est un truc connu depuis longtemps en matière de commerce.
Contrairement aux idées reçues, toucher le grand public n’a jamais été simple. Il faut soit des gros moyens, soit des prescripteurs.
Quand tu as des moyens, tu peux te contenter de répondre aux besoins du consommateur final.
Quand tu as besoin des prescripteurs, il faut répondre aussi aux besoins de ces derniers.
Voila pourquoi, quand on fait un Os libre, il y a plus de contraintes.
Le
04/01/2016 à
20h
39
hansi a écrit :
Que les asiatiques fassent leurs conneries dans leur coin : rien à cirer - je ne consulte pas de sites chinois ou japonais - et je ne pense pas être le seul ici… J’espère en tout cas que tous les développeurs un peu futés continueront de boycotter en masse les préfixes CSS. On a vu le bordel à l’époque avec un microsoft qui voulait faire sa sauce à lui - aucune raison de reperdre 10 ans !!!
Quand à Mozilla, je pense qu’ils feraient mieux de continuer à améliorer leur debugger javascript qui a certes progressé, mais reste toujours en dessous de chromium, plutôt que de vouloir à tout prix singer le camp d’à côté.
Tu as vu les commentaires plus haut. Le monde de la programmation web, c’est du mauvais code écrit trop vite et une exploitation inconsidérée de tous les gadgets à la mode pour appâter des clients débiles.
Comme l’a dit quelqu’un plus haut, oui, on peut faire du très bon code et des sites qui s’afficheront toujours bien partout.
Sauf que le webmaster qui s’amuse à faire ce genre de site, il crèvera juste de faim.
L’abandon de Firefox OS pour les smartphones est la pire connerie jamais faite par la fondation
Il faut que les pur programmeurs web réalisent que pour prétendre au titre d’OS on ne peut pas juste se contenter de faire tourner uniquement des programmes en Javascript.
On peut prétendre faire un truc comme ça quand on s’appelle google et qu’on a la puissance commerciale d’imposer ça au consommateur (et encore, ça ne semble pas marcher très fort…).
Mais quand on est dans le monde du logiciel libre et qu’on doit impérativement compter sur des prescripteurs qui sont presque tous des vrais programmeurs… qui ne sont pas fous de Javascript, on comprends que c’était plié d’avance.
Dans l’informatique, il y a des dizaines de langage et chaque programmeur veut le sien.
Cela ne veut pas dire pour autant que leur techno n’aurait aucun avenir….
Le
04/01/2016 à
20h
05
Uther a écrit :
Alors on bosse pas du tout avec les mêmes personnes. Par rapport à la moyenne des projets sur lesquels j’ai travaillé, ceux en Java étaient généralement bien mieux organisés (parfois même trop).
Java fournit un environnement tout a fait adapté à une bonne structuration. Donc si tu as un soucis d’organisation c’est certainement plus dans la gestion de projet que dans le langage qu’il faut la chercher.
Je ne partage pas ton avis.
Le fait que certains projets soient trop structurés ne fait que confirmer que les bons programmeurs sont poussés à sur-travailler justement pour éviter la déstructuration. C’est un signe.
Le C# est en effet bon pour un environnement managé, et progresse plus vite. Mais de là à déclarer que le Java est a jeter, il y a un monde.
Par expérience, sur le marché des langages pour SS2I, il est rare que deux concurrents s’affrontent très longtemps.
Et Java est un langage trop pauvre auquel il manque vraiment trop de choses importantes.
Cela dit, C# ne solutionne pas tous les travers de Java, loin de la…
Mais il est quand même meilleur.
Par contre si tu es préoccupé par les bibliothèques et l’organisation propre, le C/C++ c’est un bordel absolu comparé à Java.
Oui et Non.
Intrinsèquement, le style de programmation C/C++ est complètement différent. Plus pur, il permet souvent un bien meilleur code pour qui n’abuse pas des “features” du langage.
Pour la bibliothèque standard du C++, elle est en réalité tellement immonde que les bons programmeurs ne l’utilisent que rarement, voire jamais. Ils font leurs propres classes ou utilisent des bibliothèques alternatives (ce qui ne manque pas).
Pour comprendre cette bizarrerie, il faut savoir que par sa structure particulière, le C/C++ est l’un des rare langages à ne pas dépendre de sa bibliothèque standard qui n’est finalement qu’une possibilité parmi d’autres. Il n’y a pas réellement d’objets particuliers dans ce langage très souple ou (contrairement à java) beaucoup de choses peuvent être redéfinies.
Mais le C/C++ ne se place pas en concurrent des langages tels que java. C/C++ n’est pas fait pour la programmation “tout venant” de programmes vite écrits, mais à la création de logiciels plus pérennes comme les progiciels ou les systèmes d’exploitation.
On va au moins être totalement d’accord sur le fait que le JavaScript, c’est de la merde.
C’est clair…
Le
04/01/2016 à
17h
05
OlivierJ a écrit :
Vu l’allure générale des sites Web pour mobile, je ne comprends pas du tout de quoi on aurait besoin de plus que même du bon vieux HTML 4 + CSS 2 ou 3 (c’est surtout le CSS qui est concerné j’imagine), les pages sont globalement simples, en tous cas nettement plus simples que les pages pour fixe.
C’est vrai, mais uniquement en théorie.
Sur le principe, le HTML+CSS moderne est plus simple, structuré et limpide que les “magouilles” d’il y a… pas si longtemps.
Mais quand on regarde dans la réalité à quoi ressemble un site web moderne avec ses empilements de framework, c’est vraiment loin de s’être amélioré.
Sur le plan informatique, la programmation qui est pratiquée sur le web ne peut pas terminer autrement qu’en gigantesque nid d’emmerdes.
Le
04/01/2016 à
16h
59
Uther a écrit :
Alors oui, si on cherche, on va évidement trouver pas mal de défaut dans les bibliothèques Java, couvent lié a l’historique, mais pas plus que tous les langages que je connais et je dirais même généralement bien moins que ceux qui ont un historique comparable. Ils sont juste généralement a des endroits différents.
C’est malheureusement plus profond que ça. Avant de voir Java, j’avais rarement rencontré des programmes aussi désorganisés et sans aucune structure.
De là à dire qu’il faut laisser tomber le langage, il y a un pas que je ne franchirai pas
Au fond, c’est déjà la tendance. Java est pris en tenaille d’un côté par C# qui fait évoluer le langage bound checké pour le pissage de code en SS2I, de l’autre par C/C++ qui récupère ceux qui veulent de la performance et faire du vrai progiciel bien écrit.
Sans compter le Web et le zombie Javascript (le langage du pire) parce que c’est la mode…
Pour le reste, les paris sont ouverts : La mort de Java sera t’elle aussi lente que celle de Cobol, ou au contraire aussi rapide que celle de Delphi, la grande mode pour le pissage de code d’il y a quelques années…
Le
04/01/2016 à
15h
46
Uther a écrit :
…
Java est un langage qui fait très bien son boulot dans son domaine.
Bof, ça donne souvent des programmes mal écrits et difficiles à maintenir.
On pourrait penser que c’est uniquement la faute des pisseurs de code qui codent avec les pieds, mais le langage et les bibliothèques sont au moins partiellement responsable d’une partie des problèmes.
Maintenant pour un jeu vidéo haute performance, ou un OS, en effet je ne le conseillerais pas.
Oui, c’est certain. Quand on voit ce que ça donne les API d’Android, ça donne vraiment envie de hurler.
Le
04/01/2016 à
15h
27
Cette affaire démontre ce que les bons informaticiens ont toujours su : une spec ne vaut rien, c’est juste un bout de papier, le vrai standard de fait, c’est l’implémentation.
Une grande partie du problème viens du fait que l’ensemble Html+Dom+Javascript n’est pas suffisamment synthétique, limpide et puissant à la base, ce qui aboutit fatalement à un standard qui s’écroule sous sa propre complexité.
Même si l’on en est sorti, la vision du w3c qui était trop mathématicienne et théorique et pas suffisamment informaticienne et pragmatique pour s’adapter aux vrais besoins des gens, tout cela à laissé des séquelles.
Ah ah, la pêche est bonne aujourd’hui, tous les petits poissons sont là pour défendre leur bout de gras.
Je vous laisse maintenant mariner sur les points suivants :
1/ il y a des gens qui croient qu’augmenter les taxes sur le tabac réduit sa consommation ;
On avait oublié que le smicard a tout à fait les moyens de se payer deux paquets par jour au prix actuel…
2/ il y a des gens qui croient qu’augmenter le coût des salaires n’a pas d’effet sur l’emploi ;
Pas si simple.
Quand on réduit les salaires, on réduit également le pouvoir d’achat, ce qui retombe sur la demande de produit, les prix et la rentabilité. Henry Ford l’avait bien compris.
Par exemple, si on réduit le salaire a la seule nourriture, alors que la production de nourriture, ça occupe moins de 2% de la population, faudra pas espérer le plein emploi…
3/ il y a des gens qui se satisfont d’une absence de cohérence intellectuelle.
Si c’était aussi simple de diriger une économie, ça se saurait depuis longtemps.
Toutes les économies de la planète tourneraient bien.
Or, qu’est ce qu’on constate ? …. plus nous “mondialisons” et appliquons les “bons” principes du libéral-utopistme, plus c’est la merde…
Le
02/01/2016 à
19h
29
tmtisfree a écrit :
Merci de me confirmer mon diagnostic.
Si nous sommes d’accord la dessus, tant mieux.
Merci le SMIC (et autres mesures irresponsables).
En même temps, soyons réalistes, il est déjà très difficile de survivre avec un simple smic. Et dans les grandes villes, compte tenue du prix des loyers, c’est totalement impossible.
D’autant que réduire les salaires du peuple au strict minimum, sur le plan économique, c’est juste une très mauvaise idée.
Certes, cela semble fonctionner à l’échelle de quelques pays isolés.
Mais à l’échelle du monde entier, c’est une autre histoire.
Si tout le monde veut produire sans rien consommer, au bout du chemin, c’est le crash mondial assuré.
L’économie moderne est encore plus sensible à ce genre de phénomène : Grace à la mécanisation, les biens de première nécessité ne représentent plus qu’une proportion réduite des travailleurs.
Il faudrait au contraire augmenter les salaires pour compenser, ce qu’avait bien compris Henry Ford.
Donc si on laisse le patronat réduire les salaires au strict nécessaire pour vivre, l’économie mondiale va droit dans le mur et s’engagera dans une spirale déflationniste. Pour le peuple, c’est le retour a des conditions moyenâgeuse et de nouvelles formes d’esclavage qui ne disent pas leur nom.
Mais le plus amusant, c’est que si nous ne le faisons pas, avec la mondialisation, notre pays ira droit dans le mur quand même car il succombera de son manque de compétitivité.
Pas d’autre solution pour se sortir de ce mauvais piège que de rétablir le protectionnisme et dévaluer la monnaie.
De quoi rappeler à ces jeunes utopistes mondialo-libéraux qui se sont cru plus malin que leurs ancêtres, à quoi servait le protectionnisme et la monnaie.
Le protectionnisme a beau être mauvais d’un côté, il est quand même indispensable.
Le
02/01/2016 à
18h
50
JoePike a écrit :
Ben avec le recul et l’age , je peux t’assurer que ça s’est bien amélioré ! pour la famille , pour des proches, des collègues ou des voisins.
" />
Si tu habites un coin peuplé de vieux retraités, on peut parfois avoir cette impression.
Enfin, ça durera tant que le système de retraite tient le coup…
4322 commentaires
[MàJ] À l’Assemblée nationale, l’utilisation des logiciels libres simplement « encouragée »
14/01/2016
Le 13/01/2016 à 21h 41
Le 13/01/2016 à 21h 35
Montage vidéo : la bêta d’OpenShot 2.0 propose une très longue liste de nouveautés
12/01/2016
Le 12/01/2016 à 18h 08
Le 12/01/2016 à 17h 28
Le 12/01/2016 à 17h 19
Le fisc refuse toujours de communiquer le code source de ses logiciels
11/01/2016
Le 11/01/2016 à 21h 14
Le 11/01/2016 à 21h 02
Le 11/01/2016 à 20h 41
Lenovo abandonne la marque Motorola pour Moto
08/01/2016
Le 11/01/2016 à 09h 41
La Ligue des Droits de l’Homme s’attaque à l’état d’urgence devant le Conseil d’État
08/01/2016
Le 09/01/2016 à 20h 42
Le 09/01/2016 à 10h 47
Le 09/01/2016 à 10h 10
Le récap’ des bons plans, édition spéciale soldes d’hiver
10/01/2016
Le 07/01/2016 à 19h 30
Windows 7, à utiliser « à vos risques et périls » selon Microsoft
07/01/2016
Le 07/01/2016 à 18h 38
Le 07/01/2016 à 18h 36
Le 07/01/2016 à 16h 44
Le 07/01/2016 à 16h 09
Je pense qu’il faut reconnaître que Microsoft à raison de pousser les utilisateurs vers Windows 10.
Le business model de Microsoft évolue vers les services et c’est une excellente chose.
Le fait que tout le monde puisse avoir toujours le dernier Windows est une excellente décision qui diminuera significativement la fragmentation, permettra d’améliorer la sécurité ainsi que d’employer leurs développeur à meilleur escient que de gérer de multiples versions de Windows.
D’une manière générale, je suis assez surpris par Satya Nadella qui arrive visiblement à transformer une entreprise aussi importante que Microsoft en un temps record.
Dans le futur, je ne serais pas étonné de voir Microsoft amorcer un virage vers le logiciel libre.
Dix organisations unies pour défendre les biens communs dans la loi Lemaire
07/01/2016
Le 07/01/2016 à 17h 52
Le 07/01/2016 à 15h 31
Pour ma part, il me parait évident que les monuments qui sont le patrimoine de la l’humanité doivent pouvoir être photographié par qui le désire.
Si ce n’est pas le cas, que l’état cesse d’utiliser le moindre centime de fond public pour leur entretien.
USB Type-C : enfin un connecteur standard pour l’alimentation des ordinateurs portables ?
07/01/2016
Le 07/01/2016 à 16h 14
Sevenhugs : une télécommande pour contrôler tous les objets connectés de la maison
06/01/2016
Le 06/01/2016 à 19h 06
Tant que tout ces systèmes ne seront pas complètement ouverts, munis d’un firmware libre et communicant avec des protocoles standardisés et ouvert, les gens passeront leur temps a devoir racheter à régulièrement leurs objets pour cause d’incompatibilités, d’évolution des protocoles ou de limitations diverses.
Donc personnellement, j’utiliserais uniquement des objets connectés que l’on peut créer et programmer soi même à partir de microcontrôleurs ouverts et de firmwares libres.
Google n’utilisera plus les API Java d’Oracle pour le prochain Android
04/01/2016
Le 06/01/2016 à 17h 09
Le 06/01/2016 à 16h 14
Le 05/01/2016 à 16h 50
Le 05/01/2016 à 16h 22
Le 05/01/2016 à 15h 28
Le 05/01/2016 à 15h 00
Le 05/01/2016 à 00h 05
Le 05/01/2016 à 00h 00
Le 04/01/2016 à 23h 40
Le 04/01/2016 à 23h 12
Le 04/01/2016 à 22h 47
L’état d’urgence s’achèverait fin février, sans prorogation
04/01/2016
Le 06/01/2016 à 00h 49
Le 06/01/2016 à 00h 35
Le 05/01/2016 à 23h 34
Le 04/01/2016 à 22h 02
Le 04/01/2016 à 16h 30
Firefox : version 1.3 pour iOS et lourde décision sur la compatibilité Webkit
04/01/2016
Le 05/01/2016 à 22h 52
Le 04/01/2016 à 20h 39
Le 04/01/2016 à 20h 05
Le 04/01/2016 à 17h 05
Le 04/01/2016 à 16h 59
Le 04/01/2016 à 15h 46
Le 04/01/2016 à 15h 27
Cette affaire démontre ce que les bons informaticiens ont toujours su : une spec ne vaut rien, c’est juste un bout de papier, le vrai standard de fait, c’est l’implémentation.
Une grande partie du problème viens du fait que l’ensemble Html+Dom+Javascript n’est pas suffisamment synthétique, limpide et puissant à la base, ce qui aboutit fatalement à un standard qui s’écroule sous sa propre complexité.
Même si l’on en est sorti, la vision du w3c qui était trop mathématicienne et théorique et pas suffisamment informaticienne et pragmatique pour s’adapter aux vrais besoins des gens, tout cela à laissé des séquelles.
Ne fait pas un bon standard qui veut…
Le 04/01/2016 à 15h 17
Xbox One : des ruptures de stock prévues jusqu’en mars pour la manette Elite
04/01/2016
Le 04/01/2016 à 17h 03
Ian Murdock, le « ian » de Debian, est décédé à l’âge de 42 ans
31/12/2015
Le 03/01/2016 à 20h 43
2015 : le grand récap’ de toutes les rétrospectives
01/01/2016
Le 02/01/2016 à 19h 55
Le 02/01/2016 à 19h 29
Le 02/01/2016 à 18h 50