votre avatar Premium

FennNaten

est avec nous depuis le 6 octobre 2008 ❤️

147 commentaires







Gats a écrit :



T’inquiète j’ai très bien compris ce que tu veux dire et c’est un ramassis de conneries.





Va falloir te réveiller, le gourvernement n’a rien prévu à part l’appli StopCovid. Tu penses bien qu’on en aurait entendu parler et tous les spécialistes ne se tireraient pas les cheveux devant autant d’incompétence, voire de malveillance ?



Merci de confirmer ce que je disais, tu ne lis pas, tu ne comprends pas, et tu réponds à côté. Tu m’as vu défendre le gouvernement quelque part? Surement pas. Tu m’as vu défendre StopCovid? Je précise presque à chaque post qu’il ne faut pas confondre contact tracing, contact tracing numérique, et une appli en particulier, et que StopCovid, c’est non.

En fait tu m’inventes des intentions qui existent juste dans ta tête, et tu rages contre.





Tu vis où depuis quelques semaines ? Tu crois sincèrement qu’il faut reprendre toutes les démonstrations à la base à chaque arguments ? Tu penses sincèrement que l’appli StopCovid est capable de voir qui porte un masque ou pas et qui applique ou pas les gestes barrières ? était-ce un contact à risque ? j’ai pas mon téléphone sur moi, il est à la maison ? le voison derrière un mur, la caissière avec son masque et la vitre en plexiglass ?

À ce rythme il faudrait te refaire la démonstration que 2+2=4 à chaque argument.

 

Là pareil toujours le même problème. 

Je te dis clairement que

UNE application d’aide au contact tracing numérique

SI on veut déconfiner en réduisant le risque au plus bas

SI elle est faite correctement

SI elle est COMPLEMENTEE PAR UN DISPOSITIF COMPLET

et PAS tout de suite maintenant, vu que c’est clairement pas prêt

et PAS StopCovid

ALORS je suis pour



(c’est clair là, ou même en le faisant simplifié c’est trop fatigant pour toi ? Pas trop de problème avec le sens du mot “SI” j’espère ?) 



L’application ne doit pas être vue comme la solution, mais comme un complément pour augmenter les chances de détecter précocement plus de cas. (et, oui, en faisant des faux positifs, c’est inévitable. Et en manquant des contacts, c’est inévitable aussi. D’où le “complémentaire”… Cherche le mot dans le dico si tu piges pas ce que ça veut dire hein… Et il faut que plus de 60% des gens qui sortent s’en servent. ‘fin tout ça je l’ai écrit dans les messages précédents en fait, tu réponds juste sans piger, comme un bon troll)

 



Tu t’enfonces dans la connerie. Tu me ressors tous les arguments typiques du techno-béat adepte des logiciels magiques. Tiens c’est bizarre, c’est justement le titre de l’article. #jdcjdr

 

Encore une fois, j’inscris UNE application, en conditionnant son usage à l’existence un fucking DISPOSITIF COMPLET (et sans dire nulle part que je crois que ce dispositif existe à l’heure actuelle. C’est un autre truc qui était écrit dès mon premier message, PAS LE 11 MAI, ON EST PAS PRETS), en disant que c’est COMPLEMENTAIRE du reste qui DOIT exister et tu réponds “adepte des logiciels magiques”.

Encore une preuve que tu trolles juste sans rien bitter, et que tu préfères inventer dans la tête des autres des trucs qu’ils ne pensent pas que reconnaître  juste que tu ne les as pas compris. 





Dès l’instant qu’il y a eu contacts multiples à risque pendant plus de 10 jours, de toute façon appli ou pas c’est niqué. Il faut passer au stade supérieur, n’importe qui dans les environs est susceptible d’avoir été contaminé. Tu veux quand même pas que je te refasse une définition de ce qu’est qu’une exponentielle ?



Bon, ben là c’est définitif hein, tu gagnes la palme GPAKOMPRI, félicitations.

Je te dis que la croissance exponentielle c’est tellement violent qu’il faut combiner le plus de solutions différentes possibles (y compris donc un contact tracing numérique, combiné of course à des tests massifs, et pas des tests “uniquement chez les personnes symptomatiques” comme le disent les mous du bulbes qui nous gouvernent, vu que les personnes contaminées sont contagieuses plusieurs jours en stade pré-symptomatique…) pour minimiser le risque. Parce que contre une exponentielle, il faut aller VITE.



Et tu me réponds avec mon argument du coup… Donc là oui, je suis d’accord, contacts multiples à risque pendant 10 jours c’est baisé.  Et donc comment on déconfine en évitant ça?

Ben soit on déconfine pas, soit en déconfine en faisant des tests massifs (pour détecter les contaminations avant qu’elles soient symptomatiques), et en faisant du contact tracing pour pouvoir tester encore plus tôt les personnes qui ont été en contact avec le testé positif… Parce que sinon on perd contre l’exponentielle. CQFD…

(c’est pas plutôt toi qui aurait besoin d’un cours sur les exponentielles, les probabilités et la notion de risque plutôt…)



Et je redis pour être sûr d’être bien clair, tout ça c’est SI ON VEUT MINIMISER LE RISQUE TOUT EN DECONFINANT. On peut très bien tenter de déconfiner sans. (bah d’ailleurs c’est ce qui va se faire), et parier que compter juste sur les masques et les gestes barrière et le peu de tests qu’on a, ce sera assez. Peut-être que ce sera le cas, on peut toujours avoir du bol… (et of course j’espère que ce sera le cas). Mais c’est prendre plus de risques. (c’est déjà une prise de risque absurde qui nous a mis dans la merde en premier lieu.)

 

 Perso, avec des vies humaines en jeu, mon opinion c’est qu’il faut viser le risque minimum (qui serait ici, en plus de toutes les mesures déjà exposées, de ne déconfiner que pour l’essentiel, tout en fournissant à tous de quoi assurer leurs besoins de base plutôt que de vouloir absolument faire bosser les gens, et en réorientant les moyens de production vers la lutte contre le virus pour améliorer au max la préparation en vue d’un déconfinement bien plus tardif)



Et du coup, toi dont la seule contribution à la discussion jusque là c’est de critiquer ce que tu penses avoir compris des positions des autres tout en les insultant et en prenant un ton supérieur, à part “stopcovid cétropouri” (ce avec quoi on est d’accord donc, même si tu sembles pas l’intégrer), tu avais vraiment une opinion éclairée à exposer, ou juste tu trolles pour passer le temps ?



 Parce que pour l’instant, c’est comme dit l’adage, j’ai l’impression d’être en train de communiquer avec un pigeon. Tu ne comprends rien à ce que je dis, tu chies sur la discussion en répondant complètement à côté et en garnissant le tout d’insultes, et tu te pavanes en ayant d’avoir l’impression d’avoir “gagné”. (alors qu’à part étaler ta rage et ton incapacité à comprendre un point de vue…)

 








Gats a écrit :



Toi t’as encore rien compris. Augmenter le nombre de faux-positifs et de faux-négatifs n’a jamais été une solution. Des informations sérieuses sont nécessaires, et pour ça il ne faut surtout pas confier le traitement à des algorithmes stupides. Et encore moins dans la précipitation.



https://www.liberation.fr/debats/2020/04/26/pour-faire-la-guerre-au-virus-armons…





Et avant de dire aux autres qu’ils n’ont “rien compris”, tu as envisagé de toi-même comprendre ce qu’ils disent ?

 




  • j’ai dit explicitement que j’étais pour une application de tracing numérique, à condition qu’elle soit finalisée proprement, et PAS stopCovid pourri dans l’urgence. 

  • j’ai également dit explicitement que j’étais pour le contact tracing en général, et pour un set complet de mesures.

  • ta source dit qu’il faut voir le contact tracing au delà d’une appli qui focus les rencontres, et former des gens pour être en mesure d’enquêter, notamment parce que les lieux de contamination sont importants, et pas seulement les contacts. (à cause de la transmission potentielle par surface notamment). Je suis bien évidemment 100% d’accord avec ça, ça rentre dans un plan de contact tracing global, en particulier si on refuse une appli avec géoloc, alors il va effectivement falloir se reposer sur des témoignages fiables.



    Ta source et moi sommes donc d’accord. L’appli devrait être une des mesures d’un plan de contact tracing plus global, et ne devrait pas mobiliser toute l’attention. En particulier, on devrait bosser sur le reste et ne pas tout arrêter en attendant l’appli. (Après, ta source ne dit pas que rien n’est fait dans ce domaine)

    D’ailleurs hein, je cite: «Si on n’a pas cette brigade, une app numérique ne marchera pas.»



    En fait il n’y a que toi qui fait une interprétation du texte que tu donnes en lien comme “une appli ça va forcément augmenter le nombre de faux-positifs  /  faux-négatifs” (l’article n’en parle même pas).

    Déjà, le risque est sur les faux positifs (les faux négatifs, il faut les avoir testés et que le test se foire, et ça n’a pas à voir avec l’appli)

    Ensuite, avec de bons heuristiques, l’appli te sert de préfiltre ultra-rapide. Y a forcément des faux-positifs, (duh…) vu qu’on prévient toutes les personnes ayant été en contact. Pour qu’elles puissent se faire tester. C’est le principe en fait. Alors qu’avec juste une enquête, aussi minutieuse soit-elle, tu te limites à ce qui est dans la mémoire des gens. Et si la personne se souvient qu’elle est passée par un lieu public, et ben t’es bien couillé pour retrouver ne serait-ce que les gens qui ont croisé ton malade dans ce lieu public et les avertir de façon ciblée en moins de 24h pour qu’elles n’aient pas le temps de trop prolonger la chaine de contamination…

    Or pour rappel hein, si une personne en contamine plus d’une autre, c’est un début de pic épidémique… 

    Note aussi que les gens que les enquêteurs vont prévenir, ce sera aussi majoritairement des faux positifs. (heureusement qu’il suffit pas de croiser quelqu’un pour lui refiler la covid, on serait bien dans la mouise sinon). Juste l’appli n’aura qu’une partie de l’info (proximité), et les enquêteurs une autre (plus large notion des lieux, éventuelle liste de gens non équipé d’appli). On est dans la complémentarité, pas l’opposition.



    Alors, évidemment, c’est plus simple de dire aux gens “vous n’avez pas compris” et de filer un lien qu’on a survolé, plutôt que de se fatiguer à comprendre à la fois leurs propos et le contenu du lien qu’on poste… Les adeptes du tl;dr et des raisonnements à la va-vite sont la plaie des discussions sur des sujets complexes.

      








Norde a écrit :



C’est faux : une application de tracing ne sera pas plus utile maintenant que dans le futur.

Elle n’aiderai en rien à prévenir l’apparition d’épidémies, et ne limitera pas sa propagation mondiale voir même pas nationale.



Le problème de base c’est l’élevage industriel et le bouleversement des écosystèmes combinés avec une diffusion mondiale extrêmement rapide des marchandises.

Vouloir traiter un symptôme par ce qui n’est ni plus ni moins qu’un bracelet électronique est criminel et inefficace.



Qu’adviendra t’il si ce système est généralisé ?

Les contaminés et leur proches seront assignés à domicile, quid des dédommagements, de leur profession et des besoins essentiels ? Et à quoi cela servirait si la réponse n’est pas parfaite à l’échelle de la planète ? On serait en permanence en train de porter des bracelet de flicage ?



Non, c’est tout sauf une solution.







Repenser l’élevage hyperdense et appauvris génétiquement, repenser la destruction de l’écosystème, repenser l’éducation de la population aux gestes barrières, repenser la prise en charge médicale, repenser la recherche.

Ça c’est une réponse.

 



On a pas stoppé la tuberculose en fliquant les malades mais en éduquant la population à ne plus cracher par terre.





La réponse n’est pas parfaite, donc ne considérons pas les calculs qui disent que ça peut sauver des vies si ça s’inscrit dans un bon dispositif, et puis continuons à assigner tout le monde à résidence plutôt que juste les personnes contaminées jusqu’à ce qu’on ait un hypothétique traitement/vaccin, qu’on ait “éduqué” tout le monde, ou qu’on ait entièrement réformé le système de soin…

 

Bien sûr qu’il faudrait repenser notre économie et notre politique environnementale et sociale, mais ça ça n’a pas à voir avec la choucroute des actions à réaliser à court et moyen terme pour contenir une épidémie une fois déclarée.



Encore une fois, dans ce que j’ai écrit à la base, il y a des hypothèses qui sont posées, notamment un objectif de déconfiner au plus rapide et au moins risqué vis à vis d’une nouvelle flambée. (soit: contact tracing efficace + tests de masse + déconfinement progressif + infrastructures et conditions de quatorzaine qui permettent l’isolement + toutes les mesures de distanciation, désinfection, usage de masque). Chaque mesure retirée, c’est une augmentation du risque. (un risque qui se traduit potentiellement en nombre de morts).

Personnellement, et je n’oblige personne à partager cet avis, je trouve l’échange entre risque de morts et risque de mésusage de la technologie acceptable.

 

Si on change les hypothèse de base et les compromis qu’on considère comme acceptables, évidemment on change les conclusions avec. Si pour toi le risque de mésusage de la technologie est trop important pour que tu considères le compromis comme acceptable, et bien nos opinions (qui pour le coup sont des opinions et non des faits, c’est un % de risque hypothétique vs un autre % de risque hypothétique), et bien soit, nos opinions ne sont pas conciliables sur ce point là.



ça n’empêche pas par ailleurs que l’on soit d’accord sur des mesures nécessaires à plus long terme, mais ce n’était pas le sujet de mon post.

 


Tu as raison, sorry. J’ai tapé ça vite fait sur un téléphone et j’ai posté dans la foulée. J’aurais mieux fait d’attendre de repasser sur un PC pour formatter ^^”







Norde a écrit :



Oui, mais une application de tracing serait inutile et dangereuse.



Quand tu as mal à l’orteil tu ne décide pas de l’asperger de javel, si ?

Ça ne sert à rien et tu risque des brulures chimiques.





Comme l’explique mon pavé que tu cites, l’application de tracing est inutile maintenant, parce qu’on est pas prêt du tout à en utiliser une efficacement, et que le protocole n’est pas au point anyway. Elle n’est pas du tout inutile dans l’absolu.

Je voudrais juste qu’on arrête de faire des amalgames à la con entre le contact tracing en général, le contact tracing numérique en général, le contexte d’usage efficace de ce type de solution, et le cas particulier du gouvernement français en roue libre qui fait du n’imp’.

 

Est-ce qu’on doit développer une solution de contact tracing, tout en augmentant notre capacité et logistique de tests pour viser une sortie de déconfinement qui minimise le risque de flambée épidémique? Oui

 

Est-ce qu’on doit sortir et utiliser StopCovid le 11 mai? Hell no.  

 








DanLo a écrit :



Le raisonnement était correct à ceci près de la dernière phrase (en gras), qui sort de nulle part, et du biais de fausse alternative (ou plutôt de non-alternative).





Mon postulat était “ il faut détecter, remonter les

chaines de transmission, isoler.” Dedans il y a bien “remonter les chaines de transmission” et c’est cette prémisse “remonter les chaines de transmission” qui entraine logiquement la conclusion que le contact tracing est nécessaire pour faire cela de façon efficace. ça ne sort absolument pas “de nulle part”. Le fait est que c’est déjà ce qu’on fait, quand on teste quelqu’un on tente de remonter la chaine, en faisant dire à la personne par où elle est passée, qui elle a rencontré, pour prévenir.

Sauf que de façon non automatisée, c’est lent, et la mémoire des gens, c’est pas le truc le plus fiable qu’on puisse imaginer… Or la maladie étant très contagieuse, et notamment en phase pré-symptomatique, si les personnes détectées ont le temps d’allonger la chaine, c’est mort.

Une croissance exponentielle, ça ne s’endigue malheureusement pas avec du bon vouloir, il faut absolument empêcher que toute personne infectée puisse en moyenne en contaminer plus d’une autre, sinon, c’est une flambée.

Si on ne veut s’en sortir qu’avec des tests, sans tracking, sachant que les résultats des tests ne sont pas instantanés, alors il faut confiner tout le monde, tester pour relâcher, et retester toute la population très régulièrement. Même pas sûr que ça suffise, et ça contredit un autre de mes postulats, qui était “si on vise un déconfinement au plus tôt”. En évacuant cette condition, on peut explorer d’autres pistes (et il faut y penser), mais ce sont d’autres tradeoffs. (et pas certain que ça se tienne en termes de maths.  ).

En plus, j’ai lu “le marteau et la danse”, et le texte ne dit pas du tout “il est possible de déconfiner sans contact tracing”. Il dit “il faut évaluer pour chaque mesure la difficulté, le coût, et l’efficacité, implémenter en priorité le meilleur compromis, et continuer à implémenter le reste de la liste qu’on a faite tant qu’on en fait pas assez pour que le taux de reproduction du virus reste en dessous de 1”. Le tout en mettant des tableaux exemples (en disant qu’il faut des ROI pour mettre des vraies data en ce qui concerne les tradeoffs, et que le calcul de ces ROI doit être la priorité), qui mentionnent bien le contact tracing dans les solutions potentielles.

 Il faut éviter de faire dire au sources ce qu’elles ne disent pas…

Et moi je n’ai pas dit que l’application, c’était trop tard pour cette crise. J’ai dit que l’application, elle n’était pas prête là, tout de suite, maintenant (aucune mesure d’ailleurs…), et que le déconfinement au 11 mai, dans tous les cas ça pue l’ânerie. En s’y mettant sérieusement par contre, il paraît plus probable d’être en mesure de mettre en place un système tests+applis+isolation bien avant d’être capables de produire assez de tests à la journée pour endiguer l’épidémie avec.


Hum, déjà, pour tous ceux qui disent “on aurait dû… blabla”. Oui. Vous avez raison. On aurait dû. Malheureusement, la préparation en amont n’a pas été faite. Maintenant il faut faire avec le monde tel qu’il est, pas tel qu’il aurait dû être.

Maintenant, est-ce qu’on veut sortir du confinement au plus vite (dans la mesure du possible et du safe, pas nécessairement “au 11 mai” que les politiques ont sorti de leur postérieur), ou est-ce qu’on veut rester confinés jusqu’à ce qu’il y ait un traitement miracle/vaccin?

Si la réponse est “on veut pouvoir déconfiner avant le vaccin/la disparition spontanée de l’épidémie”, et s’il s’avère que les beaux jours n’ont pas le même effet atténuant sur la covid que sur la grippe, alors on doit mettre en place une solution qui empêche une flambée épidémique. (ou se dire qu’on s’en fiche et laisser mourir les gens. Mais personnellement je ne retiens pas cette hypothèse)

Et pour ça on n’a pas 36 solutions: il faut détecter, remonter les chaines de transmission, isoler. Donc faire du contact tracing. Et à cause de la contagiosité précoce et élevée de sars-cov-2, il faut automatiser le contact tracing, parce que si on doit attendre 2 à 4 jours pour prévenir les infectés potentiels, c’est déjà trop tard.

Maintenant pour que ça marche, il faut pouvoir tester on demand (on y est pas), et il faut pouvoir mettre les testés positifs à l’isolement dans de bonnes conditions (on y est pas non plus). Il faut aussi que plus de 60% (plus proche de 80 idéalement) des personnes déconfinées jouent le jeu.

Est-ce que c’est du “solutionnisme technologique” ? Non. Il ne faut pas confondre la méthode globale et l’outil applicatif en lui-même déjà. Sans le reste du dispositif, l’outil est useless.

Et il ne faut pas d’un outil sorti à la va-vite, puisqu’il y a une tonne de soucis potentiels à résoudre, notamment pour éviter les faux positifs en masse (par un manque de fiabilité ou par une attaque de type poisonning).

Vers où penche la balance bénéfice/risque ? (Attention ! Un risque se mesure en prenant en compte les dangers potentiels et la probabilité que ces dangers se déclarent. Le risque que l’application soit détournée de son usage n’est pas 100% juste parce que ce serait possible de le faire…). D’un côté on a un hypothétique usage malveillant, de l’autre côté on a des dizaines de milliers de morts si l’épidémie repart et qu’on ne peut pas tester/isoler assez vite. Je ne veux pas minimiser la capacité de nuisance de nos états, mais vu le risque sanitaire, perso je préfère le contact tracing. (commentaire qui vaut en l’état actuel des connaissances sur le sujet)

Ceci dit, le contact tracing à la va-vite via StopCovid pas finie, dès le 11 mai, et sans dispositif tewter/isoler adapté, ça je suis contre. C’est le meilleur moyen pour que ça ne fonctionne pas, et qu’on se condamne à ne plus pouvoir faire une version efficace parce que la version ratée aura définitivement sapé la confiance.







alain_du_lac a écrit :



C’est vrai que 150 000 euros * 40 ministres = 6 MF, cela va mettre la France sur la paille ! !

C’est fou comme il y a des gens qui ont du temps à perdre, histoire de se faire mousser sur un sujet sans importance, sauf à alimenter les réseaux sociaux et les journalistes en mal de copie <img data-src=" />





Ce n’est pas du tout le montant de l’enveloppe qui est en question ici, c’est l’impossibilité de vérifier:




  • le respect des montants alloués

  • l’usage exact qui en est fait



    Les citoyens devraient avoir le droit de savoir comment l’argent public est dépensé, et devraient pouvoir faire le contrôle facilement.








fred42 a écrit :



Le problème principal est donc le gars responsable de la sous-traitance du bazar et pas le dev. OK



C’est à ce gars d’exiger que ça soit convivial et que ça ne présente pas à nouveau la bannière quand ce n’est pas nécessaire par rapport au RGPD. S’il ne le fait pas, il se fout de ses utilisateurs et devrait être viré.





Si seulement c’était aussi simple. Dans le monde des grosses entreprises ça se passe plus souvent comme ça:




  • le responsable expérience utilisateur signale que l’expérience est toute pourrie

  • le responsable de la négociation avec le prestataire demande au prestataire la possibilité de faire le changement

  • la main passe aux entité juridiques et leurs experts techniques. Si le juridique estime que le comportement est justifié par l’interprétation de je ne sais quelle ligne du texte, on peut s’arrêter là. En l’absence de précisions et de jurisprudence on reste à la lettre de la loi pour être en risque 0. (je ne sais pas si c’est le cas ici, mais il pourrait y avoir une clause mal formulée qui empêche l’état de validation d’être considéré comme un cookie ne nécessitant pas de consentement. Malheureusement, ce n’est pas parce qu’un truc semble évident d’un point de vue technique ou même de bon sens que ça l’est juridiquement)

  • s’il n’y a pas d’opposition du département de conformité juridique, vient la question du “mais combien ça coûte”, et ce sont les départements d’achats qui vont avoir leur mot à dire (est-ce que c’était dans le budget ? est-ce que le bénéfice justifie le coût ? ). Là le niveau de souplesse dépend des boîtes. Globalement si le prestataire présente un devis jugé élevé et si le responsable UX ne peut pas garantir que le comportement actuel fait perdre de l’argent, il y a peu de chances que ça bouge.



    &nbsp;

    &nbsp;





    ndjpoye a écrit :



    Merci pour ces explications intéressantes.



    Au final, on en revient à un mal assez rependu. L’organisation de tout ça s’est bien complexifié avec le temps et comment ça, c’est un peut la faute à personne. Je dis pas ça contre toi, c’est juste un mal répandu. Est ce la faute du prestataire ? Des personnes qui ont qui ont choisi ce prestataire ? Des équipe Analystics et/ou business qui veulent tellement de choses que ça oblige à choisir ce type de presta ? etc.….

    Problème récurrent, et pas qu’en informatique&nbsp;<img data-src=" />





    Oui, la dilution de responsabilité est un mal bien connu, en politique comme en entreprise ^^”

    Après il ne faut pas se leurrer, la solution gagnante, c’est celle qui offre le meilleur équilibre entre conformité légale&nbsp; et prix, et dans la composante “prix” sont pris en compte tarifs du prestataire, image de marque, relations publiques, importance des analytics dans le pilotage de l’activité, ventes perdues par rebond utilisateur…

    Ce sur quoi je veux surtout insister, c’est sur le fait qu’il faut se retenir de sursimplifier, en tant que techniciens on a souvent tendance à se dire “nan mais pour faire ça c’est juste quelques lignes de code, aucune raison que ça pose problème, ils font forcément expès de se planter”. On a également tendance à considérer que si un truc nous irrite, ça irrite forcément des tas de gens, et donc ça devrait être résolu. Sauf que non, j’ai tous les jours l’occasion de voir que des UX que j’estimerais inacceptables sont parfois tolérées voire préférées par la grande majorité des utilisateurs.

    Aussi, abstenons-nous de jugements hâtifs basés sur nos biais cognitifs personnels. Souvent chaque acteur a (de son point de vue) de très bonnes raisons d’agir comme il le fait, sans qu’aucune de ces raisons ne soit de la malveillance ou de la bêtise.








Edtech a écrit :



Tu mets un header “Content-Security-Policy” bien restrictif au niveau du serveur (plus efficace qu’au niveau du site web), et tout ce qui est ajouté par les tiers ensuite sera bloqué par les navigateurs. Le tour est joué ! 😁





Là où je bosse on a effectivement des discussions autour de l’usage de CSP, on s’en sert déjà pour éviter certaines classes de pb de sécurité, on voudrait étendre pour ajouter du contrôle sur ce qu’il se passe côté tag manager. Après, ça nécessite pas mal de négo entre équipes business, sécurité, juridique et IT.


Alors, pour bosser du côté de ceux qui font dans les gros sites de ecommerce, je pense que les commentateurs ici loupent quelques trucs fondamentaux sur le fonctionnement des boîtes (et donc du web) à une certaines taille. (genre quand on a des groupes qui s’étalent sur plusieurs marques et plusieurs pays avec leurs marchés locaux)

&nbsp;

Ce ne sont pas les développeurs qui mettent directement en place tout ce qui est cookies, traceurs, régies pubs, etc, etc. Ce serait tout simplement ingérable de traiter toutes les demandes des équipes business et analytics.

Ce qu’il se passe, c’est que côté dev, on intègre trois choses (niveau cookie en tout cas, pour ce qui est du reste du RGPD il y a encore d’autres actions à effectuer pour la conformité, mais c’est une autre histoire):




  • les cookies pour la session et les features de la plateforme ecomm’ qu’on utilise (ceux qui sont appelés “fonctionnels” dans les bandeaux et qui ne se refusent pas donc)

  • un “data layer” côté client. En gros il s’agit d’un objet javascript unique (donc côté navigateur) dans lequel on va enregistrer des évènements en suivant une spécification (notamment de nommage et format) fournie par l’équipe analytics (“quand l’user fait ça, on enregistre ça sur l’objet, quand tel truc se passe, en enregistre ça, etc.”). A ce stade tout reste dans le navigateur.

    &nbsp;- le code d’intégration d’un prestataire qu’on appelle un “tag manager” (le plus souvent c’est google tag manager), qui va permettre ensuite aux équipes analytics et business de gérer tout le reste. En gros il faut voir ça comme un “trou invisible” dans les pages, qui permet au métier d’installer les prestataires qu’ils veulent (qui vont injecter leur propre code dans ce “trou”). Un des prestataires installés (généralement google analytics) aura pour but “d’écouter” l’objet “data layer” de l’étape précédente pour générer des metrics non-partagées à des tiers.&nbsp;

    &nbsp;

    Partant de là, à votre avis comment est-ce qu’on fait pour gérer cette fameuse “bannière cookie” qui casse les pieds à tous le monde avec son expérience utilisateur dégueulasse ?



    Si vous avez répondu “on ne le gère pas, on passe par un partenaire tiers”, vous avez bien compris comment ça marche :)



    Comme les développeurs n’ont aucun moyen de savoir quels traceurs ou outil d’analytics le business installe via son tag manager, ils n’ont pas moyen non plus de gérer le consentement pour ces traqueurs.&nbsp; On fait donc appel à un partenaire supplémentaire, qui va permettre de gérer via un backoffice dédié les autres partenaires actifs, et fournir en temps réel une bannière de gestion des consentements (garantie conforme à la législation).

    Voilà qui vous explique aussi pourquoi toutes ces bannières se ressemblent (et comportent souvent un “powered by xxx” ).



    Contrairement à ce qu’on pourrait penser, les entreprises qui ne font pas directement leur beurre avec les traceurs ne se torchent pas avec la conformité, mais généralement elles n’ont pas d’équipe technique interne dédiées pour traiter chaque point, et cela se retrouve (plus ou moins bien) sous traité.

    Donc sachez que quand vous vous retrouver avec la popup chiante qui se réouvre et qui est mal foutue, ce n’est pas une volonté des sites d’avoir l’utilisateur à l’usure ou de faire un pied de nez au législateur en interprétant la loi de travers, c’est juste une conséquence systémique de l’organisation interne des entreprises et de la course aux économies: on paie le prestataire qui fournit l’outil le mois cher tout en garantissant la conformité + le fait que ses serveurs vont tenir la charge et ne vont pas péter la fonctionalité des sites.



    ( attention, je ne dis pas non plus que tous les gestionnaires de sites sont de bonne foi et que personne ne cherche à contourner la législation. Il y a toujours de mauvais élèves en mode “on va poser une bannière pour faire genre et parier que personne ne fera de vérification approfondie” )



    &nbsp;

Dans ma boîte on a une politique de télétravail hebdo (cadre ou non cadre idem, jours fixes ou flexibilité à déterminer par avenant au contrat), sous condition d’avoir un poste éligible (=pouvoir avoir des jours de la semaine où il n’est pas nécessaire d’utiliser du matériel qui se trouve dans les locaux de l’entreprise), d’avoir fini sa période d’essai, d’être joignable sur les horaires de bureau, et avec quand même du présentiel obligatoire chaque semaine.

Les problématiques de confidentialité sont réglées niveau IT, avec des laptops configurés pour (écran avec filtre de confidentialité, DD chiffré, clefs USB chiffrée, VPN, etc.) + smartphone d’entreprise + formation des employés.

Tant que l’entreprise est équipée pour et le personnel formé, ça fonctionne sans problème.

&nbsp;Là où le législateur devrait coller son nez, c’est dans les problématiques d’assurance, dans les incentives au télétravail, et dans l’effort sur le déploiement des réseaux, pas dans les mesurettes déconnectées du réel…

Pour faire un peu de mauvais esprit quand même:

“pour accompagner les nouveaux créateurs, futurs Norman ou Cyprien ” =&gt; Personnellement je serais nettement plus convaincu s’il s’agissait d’accompagner les nouveaux créateurs pour qu’ils ne nous servent surtout pas la même soupe que Norman ou Cyprien, création, originalité, tout ça.



Ceci dit, je trouve les éléments de langage assez peu convainquants, mais ça ne veut pas dire que je rejette l’idée de taxe en bloc.



En effet, on peut se poser la question de l’égalité dans l’autre sens:

Dans l’hypothèse admise d’avoir un état légitime pour taxer un produit d’un domaine afin de financer la création dans ce domaine (je précise le cadre car on pourrait me rétorquer que de toute façon “l’exception culturelle” n’a pas lieu d’être de base. ça se discute, certes, mais je pars du principe que ça n’est pas remis en cause)

Ne serait-il pas normal, si on le fait pour le cinéma et la télé, de taxer également les plateforme de vidéo [à condition, en proportion, de financer des projets de création visant ces plateformes au même titre que le reste] ?

ça reste une forme de création audio-visuelle. (je rappelle que le CNC n’englobe pas que le cinéma dans les trucs qu’il finance)

Je trouve que la question mérite d’être discutée, mais pas sous forme d’une décision de taxation, plutôt sous la forme d’une redéfinition des missions du CNC.

Par exemple, une obligation de financer pour une plateforme en fonction du montant collecté sur cette plateforme. (est-ce que ça a du sens ? quid des éléments portables sur plusieurs ?)

&nbsp;

&nbsp;







t0FF a écrit :



&nbsp;

&nbsp; <img data-src=" />&nbsp;Non,&nbsp;la sécurité&nbsp;c’est le B-A-BA du chef de projet, voir du MOA (a lui de se faire aider dans cette tâche si ils n’ont pas les compétences). Le dev est responsable de la qualité du code qu’il fournit (qui n’est qu’une partie infime de la sécurité). Il n’est absolument pas responsable de l’ensemble de la sécurité du projet.





Je dirais même que la sécurité, c’est l’affaire de tous les participants à un projet, sous l’encadrement d’un responsable dédié.

Et c’est particulièrement difficile pour le dev quand tu dois laisser la main à l’extérieur sur une partie des tâches.

“au fait, on a importé la base client de l’ancienne appli, mais on ne veut pas que les clients aient besoin de nouveaux mots de passe” “mais vous les avez importés comment ?” “ben on a exporté ça dans un fichier, qui est passé par le mail de machin, qui l’a mis sur le partage truc, et.” “ok, donc vous avez laissé les hashs transiter par des canaux non secure, on reset tout” =&gt; et là ça rage.

Pareil quand t’as une portion CMS qui permet à des entreprises tierces de déverser des contenus, ou des intégrations avec des prestas, ou des boîtes en charge de la gestion de scripts tiers pour les “analytics”…

Le vecteur numéro 1 c’est très rarement le code en lui-même. Perso si me prenais l’envie de monter une intrusion, avec tout le respect dû aux génies de la sécu qui passent leur temps à attaquer le code des applis pour le trouer, je passerais absolument pas par là, trop fastidieux quand tu peux arriver au même résultat avec un peu de social engineering et un seul maillon faible parmi les humains qui gèrent ta cible.

&nbsp;


Parce que je me dois de rendre à César ce qui appartient à César, surtout après avoir râlé précédemment dans ces commentaires sur mon upgrade foireux, une màj est apparemment passée cette semaine et les features défaillantes de mon upgrade win10 sont toutes remises d’aplomb. Ce qui m’épargne donc définitivement la réinstall et me permet de profiter de nouveau de toutes les capacités de ma machine.

Ça n’excuse pas les galères initiales, mais c’est un bon point quand même.

Ce commentaire étant plus long que prévu, un petit TL;DR:

J’ai accepté la màj, je regrette d’avoir cliqué. Lisez si vous êtes intéressé par le détail de tout ce qui s’est mal passé, sinon retenez juste que les chances de màj foireuse sont bien réelles.





&nbsp; Grmblbl, pour ma part j’ai cédé et j’ai tenté la màj win7 pro -&gt; win10pro, en espérant que ma machine qui prend un peu d’âge y regagne un peu de vélocité (principalement au démarrage) (ça avait été le cas des machines du boulot en passant de 7 à 8.1).

Et bah je sais pas comment ça se passe en clean install, mais en tout cas l’upgrader aurait pu être mieux fichu :/

La màj a eu l’air de bien se passer, puis première surprise, je peux me rhabiller pour le gain de perfs. Soit.

Deuxième surprise, une augmentation de charge assez significative sur mon disque en post boot. Mwoké.

Je décide de commencer par aller mettre tous les privacy settings dans le mode le plus restrictif, je ferme le panel, je rentre dans la recherche pour aller trouver le truc de partage de wifi qui se trouve dans un autre menu et que je veux shunter… Cortana pop une fenètre pour prévenir que l’assistant va être désactivé à cause de mes paramètres de confidentialité, j’approuve cette désactivation puisque je n’ai pas envie d’être enquiquiné par la pseudo-assistante virtuelle et là pouf, crash machine.

&nbsp;Je reboot… et toutes les features basées sur modernUI sont plantées. Plus de recherche de programme, plus de menu démarrer, plus de edge, plus aucun des panneaux de settings basés dessus (même si j’ai encore accès au paneau de configuration standard).

Un oeil au journal des évènements me confirme que tout élément modernUI que je tente d’ouvre balance un ‘unable to call remote procedure’, mais of course pas moyen de savoir quelle foutue procédure plante. ça doit coûter trop cher ou révéler trop d’info sur le moteur interne de faire des vrais logs d’erreur…

J’ai testé toutes les ‘solutions’ au même type de problématique trouvées sur le net, mais peau de balle, mon souci doit être apparenté sans être exactement le même. Reste plus qu’à réinstall… sauf que j’ai la flemme pour le moment (et pas envie de devoir réinstall tous mes progs derrière). à noter que bien évidemment l’interface de réparation/réinstall/rollback qu’on peut déclencher en pré-load de l’OS se base sur modernUI et donc crashe aussi&nbsp; -_-

Coup de bol, les applis que j’utilise en permanence sont dans ma taskbar, et je passe par la ligne de commande pour le reste, je peux donc globalement me passer de la barre de recherche et du menu démarrer.

Derrière, je décide au moins de me détendre avec uner partie de jeu… of course windows update a décidé que son driver sorti de je ne sais où serait plus compatible avec ma CG que celui du constructeur… tellement compatible qu’aucun jeu n’arrive à trouver l’interface de carte -_-

Un petit tour chez ATI, une réinstall de driver, une désactivation des checks automatiques, et ça refonctionne, mais c’est chiant (et surtout, j’imagine tellement mal mr-tout-le-monde s’enquiquiner avec tout ça).

En bref, pas la meilleure expérience d’upgrade du monde.

&nbsp;

Toute l’ironie de la chose apparaît quand on sait que les deux dernières failles découvertes du protocole TLS, permettant de méchants man-in-the-middle, sont dues à des trucs ajoutés pour satisfaire les exigences des USA en terme d’exports des technologies de crypto… FREAK, logjam&nbsp;&nbsp;Merci les mecs de laisser trainer vos vieilles backdoors pour l’usage des black hats à travers le monde…

Pour moi, le seul objet connecté qui vaut le coup, c’est celui-là:&nbsp;&nbsp;&nbsp;brew factory <img data-src=" />

(TL;DR: un backend node.js tournant sur un rasberry pi, qui permet de monitorer/contrôler une brasserie maison via une interface web ;)&nbsp; )

Ceci dit, attendons de voir ce qui va ressortir de ce CES. Comme d’autres ici, je suis pour l’instant plutôt dubitatif en ce qui concerne ce label “French Tech”.

[HS] Reçu aujourd’hui, un pseudo mail de la bnp avec comme instruction: “pour éviter l’invalidité de votre compte, veuillez télécharger la pièce jointe puis l’ouvrir avec votre navigateur”

En pj un .htm dont la preview dans la boîte mail commence par une balise script…

Mais bien sûr ! xD [/HS]



« les artistes-interprètes en cause avaient autorisé l’exploitation de l’enregistrement de leurs interprétations, sous la forme de « phonogrammes publiés à des fins de commerce », la cour d’appel pouvait en déduire « que les autorisations (…) données par les artistes-interprètes incluaient la mise à disposition du public par voie de téléchargement payant »





Si c’est bien formulé comme ça, l’erreur de ces artistes est d’avoir signé une telle clause. La formulation est futur-proof, et couvre tout enregistrement sonore qui se vend, quel que soit le vecteur de diffusion. Le prétexte de l’apparition d’un nouveau vecteur ne tient pas dans ce cadre et, morale ou pas, le tribunal ne peut rien faire: légalement c’est parfaitement valide.

Comme le dit très bien NonMais, tu as choisi le cachet et pas la rémunération sur les ventes, ben tu assumes ce choix.

Après que les contrats proposés soient obligatoirement moisis, c’est un autre problème, mais encore une fois ce n’est pas au tribunal d’intervenir: soit la loi doit changer pour encadrer ces contrats et dire ce qui est abusif ou pas (et ça va y aller sévère niveau lobbying), soit la SPEDIDAM doit encadrer correctement les artistes qu’elle représente et leur expliquer précisément les tenants et aboutissants de ce qu’ils signent, en les poussant à refuser ce qui est considéré comme abusif.

[HS]









WereWindle a écrit :



remplace tes crochet en début de com (oui ça viole les règles de la typo, je sais) par des parenthèse et la quote remarche <img data-src=" />



(un HS de grande qualité de chez HS & fils. HS & Fils : hors sujet depuis 1885)







ah, les joies du parsing de bbcode ^^

le délai d’edit est passé, mais je note pour référence ultérieure, thanks !



[/HS]


”[…] et surtout, le tarif d’un Mo est de 0,54 euro. 1 Go en itinérance revient donc à 540 euros. Et les autres opérateurs français ne proposent guère mieux, tout au plus pouvez-vous gagner quelques centimes.”



Pour la data et la voix, Orange/Sosh propose depuis juin des packs itinérance ponctuels “pass Go Europe”. Bon, les tarifs sont quand même élevés, et surtout limités dans le temps, mais ça baisse le prix du Go.

10€ -&gt; 100Mo valables 3 jours

20€ -&gt; 400Mo valables 7 jours



Testé pendant mes dernières vacances, le combo du pass 7 jours avec les sms européens gratuits inclus dans mon forfait Sosh, c’est bien le temps d’un voyage.



(edit: retrait de balises quote apparemment inutiles pour la citation de l’article)

(edit bis: les répétitions c’est mal)

Merci pour ce programme des festivités. ^^’








Maxouille-la-fripouille a écrit :



blablabla… <img data-src=" /> Toujours les mêmes rengaines des geeks rétrograde anti-tablettes, qui le sont parce qu’ils ne veulent pas s’adapter, et qui ne voient que par les tours PC montées soi-même en rejetant tout le reste parce que selon eux c’est pas de la vraie informatique et parce qu’on peut pas choisir son OS (chose qui n’intéresse qu’eux)… <img data-src=" />







ok, je pensais qu’on pouvait avoir une discussion genre argumentée, intelligente et polie, mais tu es juste un fanboy/troll qui fait des amalgames bêbêtes (ne pas vouloir utiliser quelque chose qui est loin d’être indispensable, c’est très différent de “ne pas vouloir s’adapter”, et pointer du doigt les abus n’a rien à voir avec le fait d’être rétrograde… ). Et ben bonne continuation.


Facebook commence à me les gonfler à vouloir décider à ma place de la pertinence des publications. Entre les contenus sponsorisés qui viennent me polluer, l’ordre chronologique de flux qui saute, certaines publications que je ne vois pas s’afficher…

J’en suis arrivé à changer mes réglages pour ajouter des envois de notifications aux pages/personnes que je veux absolument suivre. Et encore, même ça, il n’y a que 50% environ des trucs que je configure pour qui causent effectivement une notification &gt;&lt;

Si seulement chacun pouvait avoir genre un rss personnel plutôt que ces bouses de réseaux sociaux…







Maxouille-la-fripouille a écrit :



Mais la question est même pas là! <img data-src=" /> Le gros problème des geeks libristes comme toi qui sont à fond dans leurs délires, c’est que vous assimilez la tablette au PC, alors que ces 2 équipements n’ont rien à voir point de vue philosophie et façon d’utiliser! <img data-src=" /> Les constructeurs m’ont rien mis dans la tête, je regarde juste la réalité et je constate que sur ce genre d’équipement mobile ça a toujours été que les OS sont fermés et qu’on ne puisse pas faire sa “popote perso” au niveau des applis.



Franchement, à part vous ça intéresse qui de pouvoir choisir son OS, choisir sa version d’appli, etc? PERSONNE! Le grand public s’en tape royalement le coquillard de ça, et de toutes façons même si il en avait la possibilité il irait jamais changer l’OS ou choisir sa version d’appli, à part les “quitouche” pour se la péter. Le gros problème, c’est que vous êtes tellement enfermés dans vos délires de geeks que vous n’avez même plus conscience de la réalité, de comment ça se passe dans la vraie vie. C’est pas la première fois que je le dis en +.





Encore une fois: à part vous ça intéresse qui ce genre de considérations? Arrêtez de vous prendre pour le centre du monde! <img data-src=" />







Sinon, tu sais t’exprimer sans être agressif et condescendant ? Ce n’est pas parce qu’on est sur le net que la politesse dans les échanges ne doit pas avoir sa place.

Si tu révises ton histoire, tu constateras que le grand public se tamponne toujours de se faire enfler, ce n’est pas une raison pour ne pas pointer du doigt un problème quand on en voit un. Et ça n’a rien avoir avec le fait d’être un “geek libriste” “dans son délire”.

Le PC, quand un truc commence à merder, si tu n’es pas capable de t’en occuper toi-même, tu as souvent quelqu’un autour de toi qui peut, ce qui pour des machines qui ont une utilisation plutôt “standard”, permet de pas mal prolonger la durée de vie.

La tablette, en général tu peux te brosser, soit tu es sous garantie et SAV, soit tu ne l’es pas et porte-monnaie. La tablette (bon, surtout l’ipad) tu la paies super cher par rapport aux possibilités offertes. Bien sûr, je sais que c’est coûteux de miniaturiser des composants, là n’est pas la question (sauf encore une fois pour l’ipad et sa mega marge), ce qui me gêne c’est l’aspect user = vache à lait. Tu as peut-être les moyens pour remplacer tes appareils régulièrement, et/ou les connaissances pour les maintenir un minimum et les utiliser de façon à ce qu’ils durent, ce n’est pas le cas de la majorité.

À vendre du contenu simplifié avec 0 bidouille possible au “grand public”, on lui apprend qu’il vaut mieux consommer sans se prendre la tête, et que, comme tu le dis si bien, la bidouille c’est un truc de “geek libriste”, c’est hors des normes sociales. Par contre, si t’as pas une tablette par foyer mini + un smartphone par personne, t’as raté ta vie. Dépense, dépense, dépense…

Alors on a parfaitement conscience de comment ça se passe dans la “vraie vie”, merci bien, on le sait ce que les gens préfèrent et à quoi ressemble le marché (je bosse dans le logiciel, dans la boîte on a très bien pigé et depuis longtemps qu’il valait mieux faire de l’appli web / mobile / tablette et viser au plus simple quand une appli est grand public). Avoir conscience n’empêche pas de déplorer.

Après, même si je n’ai aucun cas d’utilisation perso pour la tablette, je n’ai pas la prétention d’interdire à qui que ce soit de faire ce qu’il veut. On verra bien comment ça évoluera.








MasterDav a écrit :



Tu nous en reparlera quand t’en auras eu marre de farmer les elite <img data-src=" />







Hum, voyons voir, ne serait-ce que pour arriver au premier donjon élite, si mon avancée reste constante… allez, à la louche, on peut compter une petite année xD



J’ai forcément un point de vue de casu, je peux tout juste essayer d’imaginer ce que ça donne pour un hardcore ^^’ En plus je n’en connais pas encore sur TSW, je suis tout noob et j’me suis pas lancé sur les fofos.



En tout cas, pour l’instant je m’amuse, ça me détend après le taf (même si c’est pas évident à deviner quand je me prends la tête sur une énigme xD )








anthony-d a écrit :



Hello,



Moi je savoure The Secret World en ce moment. J’ai déjà tué plusieurs centaines de zombies sans vraiment m’en rendre compte grâce au scénario qui pour moi fonctionne bien. C’est très agréable d’y jouer, même si l’Univers de Kingsmouth est oppressant.







+1



Je m’y suis mis il y a peu et c’est un jeu qui vaut le coup. En plus il est passé en mode sans abonnement (l’achat du jeu suffit, et il y a une boutique ig).

Je le trouve plutôt bien balancé, adapté pour différents profils de joueurs, riche en contenu.

Un casu comme moi trouve son compte en solotant doucement le contenu (et en mourrant. Beaucoup ^^’ ) ou en jouant avec des gens croisés au hasard le temps d’une quête ou deux. Je pense qu’il y a aussi largement de quoi faire pour un hardcore gamer, le leveling est très sympa et le endgame a l’air intéressant (‘fin au rythme où j’avance, je ne suis pas près de l’expérimenter). Les optimisateurs en particulier pourront s’amuser à chercher le meilleur build en faisant des combos avec les 500+ skills combinables.



Bref ^^


AMHA, la stat la plus marquante est celle du niveau de revenu, et c’est elle qui fait grimper un peu la part “longues études” pour les iphones.

Ce genre d’étude n’est pas très parlant lorsque chaque critère est isolé, pour faire des stats permettant de profiler il vaut mieux avoir des catégories subdivisées (pour calculer des probas en fonction de la possession d’un à x critères, etc).

Là c’est plus de la data du pauvre pour nourrir les trolls qu’autre chose ^^’

Aoutch, j’espère que chez Bing, ils ne passeront pas leur trucs de trads incrustés en auto :/ Ils le font dans certaines docs microsoft et c’est casse pied (quand je fais une recherche en anglais, généralement c’est parce que je veux mes résultats en anglais ^^’ )

Sinon, je trouve qu’au lieu de se faire la guéguerre sur des fonctionnalités pas toujours utiles, les deux feraient mieux de se concentrer sur leurs algos d’indexation et de reférencement.

Bon, peut-être qu’il ne s’agit que de moi, mais j’ai l’impression qu’il devient de plus en plus dur de sortir facilement des résultats pertinents lors d’une recherche, en grande partie à cause du sur-référencement de certains sites (grmblblbl de techniques de SEO de mes grmblblblbl), mais aussi à cause de facteurs “naturels” (augmentation permanente du nombre de contenus). Pour limiter ça, le filtre par date est effectivement priceless (on a encore de vieux contenus dépassés qui sont trop bien référencés :/ ). J’attends aussi avec impatience la “recherche intelligente” capable de contextualiser et de prendre en compte cette contextualisation dans la recherche °o° (on peut rêver xD )







Seth-Erminatores a écrit :



Est ce que ça fait de ton cas une généralité? Non.

Perso je pense le contraire, le gamers va se monter sa propre config pour être sûr de pouvoir tout gérer par lui même.







Les gens n’ont pas tous les mêmes intérêts et besoins. Sans stats on peut penser ce qu’on veut, ça n’en fera pas une vérité…

Je suis à la fois gamer et développeur, et je sais comment fonctionne ma plateforme, mais je n’ai absolument aucun intérêt dans le tuning de machine (et en plus je ne suis pas doué, alors payer des composants chers pour les cramer, merci bien). Du coup bah je mets la main à la poche pour que d’autres se cognent le boulot à ma place et me filent une garantie sur leur taf par-dessus le marché.



Je connais aussi des gens qui aiment bricoler les machines pour le plaisir de les booster, sans être gamer. Et d’autres qui cumulent les deux.



C’est comme assimiler un amateur de pilotage à un fan de mécanique, il y a un terrain de convergence, mais on peut tout à fait être l’un sans l’autre.








wackyseb a écrit :



Bon étant un super Pro Apple car je déteste Windows 8 et Windows Phone 8, çà me ferait vraiment ch.. d’avoir un IOS7 tout plat.

La mode c’est une grosse conneries (cette année, c’est l’année du flat design !!!).

Et alors on s’en cale que c’est la mode, c’est moche c’est tout.

Pas la peine d’en faire tout un fromage.



Franchement, c’est pareil pour pleins d’interface. Je préfère mille fois avoir du contenu avec interface en 3D avec effet de transparence, de belles couleurs plutôt qu’un truc immonde et tout plat.



Mon Téléphone Pro est un windows phone 8 donc merci je connais. Mais c’est quoi ce système tout pourri !!! Sans rire, c’est tout sauf pratique, les fonctions sociales, bein on s’en fou en milieu pro. Pour afficher les images, le téléphone réfléchit et scanne le dossier comme s’il ne pouvait pas indexer les photos au fur et à mesure.

Windows 8, c’est pareil : Tu change de PC, t’y connais rien en informatique et tu pleur pour qu’un gentil collègue passe te remettre un bon windows 7 car trop c’est trop, ModernUI est très mauvais.







Tout le monde n’a pas les mêmes contraintes pros ni le même workflow ni les mêmes goûts. Dans bon nombre de milieux pros, les fonctions sociales, on ne s’en fout pas, mais alors pas du tout…

Perso j’ai un wp8 et j’en suis très content. L’interface me permet de hiérarchiser les éléments de façon à trouver imédiatement ce dont j’ai besoin, 0 lag, 0 souci. Et pour les photos heuuu… J’ai un lumia 920, mes pages d’images s’ouvrent directement avec tous les thumbnails, sans ralentissement d’aucune sorte, et l’apparition d’une image sur l’écran à la sélection est immédiate…

Après, si tu parles d’affichage dans des apps tierces, là c’est pas le problème de l’OS.



Pour moi le flat design (et comme il a été dit ailleurs, les tuiles sont une des options, pas la seule qui existe), c’est comme beaucoup de chose, le concept en lui-même ne provoque pas forcément la création de trucs moches, bien appliqué ça donne des interfaces sympas, surtout pour le touch. (en desktop avec clavier/souris et grand écran je reste plus dubitatif, mais là ce n’est pas le sujet).

Jusque là je n’ai jamais été fan des interfaces de la pomme, mais je suis quand même curieux de voir ce que ça va donner.








CryoGen a écrit :



Ca compte comment dans le cas des portables avec Optimus ? Je ne vois que cette explication pour les GPU Intel <img data-src=" />







Ça c’est une bonne question. Avant de faire sa collecte sur la config, steam prévient et te montre le résultat qu’il va enregistrer. De mémoire j’ai vu intel mentionné au niveau de ma CG dans le dernier et ça m’avait étonné vu que j’ai une Nvidia pour le jeu, puis je me suis souvenu du système à deux CG. Par contre je n’ai pas eu la curiosité d’éplucher tout le truc pour voir si il y avait les infos des deux cartes. J’essaierai d’y penser la prochaine fois.








yeagermach1 a écrit :



@FennNaten : demain tu accepterais que ton salaire baisse sous pretexte que le marché a changer ? Alors que toi a ton niveau tu vois que c’est pas forcement le cas ?







Il n’y a pas de baisse dans le cas de la situation actuelle. (on a dérivé sur les DRMs en général, mais ce n’était pas le sujet de base)

Je vais essayer en propositions plus simple que ma prose un peu dense ^^’




  • À l’heure actuelle, les acteurs réclamant ces DRM ne sont pas sur le marché concerné par ces DRM (je parle de la situation particulière du html5). Il n’y a donc aucun revenu associé.

  • Ces acteurs voient la nouvelle source potentielle, ainsi que la demande, mais disent “pour qu’on rejoigne ce marché, il nous faut des drm dans la spec de base”

  • Je considère qu’il faut leur répondre “non”: s’ils veulent développer ce marché (le streaming légal), ils le font avec les moyens dispos, sinon tant pis pour eux.



    Là, ils ne demandent pas des DRM pour éviter une baisse de leur salaire, ils veulent des DRMs préventifs pour préserver des revenus qu’ils ne font pas encore…


@yeagermach1 : Mais ce marché il n’est pas nécessaire de prouver qu’il existe: c’est déjà le cas ^^’

À l’heure actuelle, la copie est autant voire plus une réalité que le DRM, et le pognon des ayants-droits ne s’envole pas. En France, des éditeurs comme Bragelonne vendent sans DRM et ne s’en portent pas plus mal. La musique s’est passée des DRM, et n’est pas morte.

De plus, la demande pour une VOD de qualité est là.

L’exemple est là, sous le nez de tout le monde. Et si le DRM a reculé, c’est parce que certains lui ont dit “non”, ce n’est pas en l’accueillant à bras ouverts dans le web qu’on va faire changer les choses. En le refusant, on force la mutation du secteur.

Le problème ici est le suivant: on a des gens qui se font un pognon monstre et qui ont une vision “il n’est pas suffisant de faire un bénéfice, le bénéfice de l’année suivante doit être plus gros que celui de cette année, et celui-ci doit être assuré”. Ceux-ci disposaient jusque là pour asseoir leur recette de la possibilité de poser un monopole grâce aux entraves à la diffusion: entraves qu’internet a fait sauter. Plutôt que de chercher des solutions ou d’expérimenter, ils tentent de regénérer artificiellement ces entraves. (Et engraissent des sociétés qui vivent de ça) Entre autre parce que sans ça, le secteur de la télé par exemple va devoir changer et encourager la création plutôt que de capitaliser sur un petit pool. Parce que ça leur remet en tête le fait que le marché est censé être concurrentiel.

Il n’est pas sain de leur laisser une possibilité d’esquive, même illusoire. Il y a un moment où pour apprendre à tenir sur un vélo, il faut retirer les roulettes.

La solution médiane a été pratiquée déjà, il est temps de dire stop.

De plus ce qu’on leur dit, ce n’est pas “passez vous de DRM”, on ne s’attaque pas aux marchés existants, on leur dit “pour les nouveaux marchés ouverts par le web intéropérable, pas de DRM intégré”. C’est quand même différent.



Voir ici (en anglais) pour des gens qui s’expriment mieux que moi sur le sujet et avec qui je suis plutôt d’accord (pour cet article particulier): blog freeculture.org: ne pas se laisser avoir par les mythes sur les DRMs, l’intégration des drm au html5 est une trahison des utilisateurs du web







yeagermach1 a écrit :



Maintenant reste le probleme de la diffusion. Aujourd’hui la situation est tel que la plupart des contenus se retrouvent sur le net gratuitement (si ce n’est la totalité) alors que les sources sont “un peu” protegé. Les producteurs de contenus ils voient cela et se disent que si ils protegent plus, c’est la porte ouverte a toutes les derives (et accessoirement a la fin de leur existence). C’est un probleme qu’il faut regler parce que le payant sera toujours plus cher que le gratuit. Meme mettre du contenu exclusif pour le payant ne sert a rien parce qu’il suffit d’une personne pour le rendre gratuit. C’est comme tu le dis plus haut il me semble, l’ensemble du marché qu’il faut faire evoluer mais cela n’arrivera pas en opposant un camp a un autre dans une parodie de debat.



Mettre une gestion des DRM dans les standarts du net c’est juste dire : les drms sont une realité, faisons en sorte de les standardisser pour le confort d’un maximum de gens.







Les producteurs de contenus ne sont pas aussi idiots qu’ils veulent nous le faire croire. Les DRM, aussi standardisés, aussi évolués qu’ils soient, sont complètement inutiles. Je suis sûr qu’ils le savent. Pour que le flux de contenu soit consommé, il doit, à un moment ou un autre, aparaître en clair, et il sera donc toujours possible de le capter à ce moment là. Même si ça se complique un peu, ça ne change rien: tu l’as dit toi-même il suffit d’une source pour que le partage commence. Et il y aura toujours au moins une source. Les seules personnes à être ennuyées par les DRM, ce sont celles qui se procurent légalement le produit (et donc paient…). Un comble. Si le piratage devait tuer leur business, ce serait déjà fait. Avec les dvd, il y a déjà des sources pour tout. Et pourtant leurs revenus n’ont pas plongé. C’est un faux argument. Ajouter le DRM dans les standards du net ne vient rien changer pour le pirate, il vient juste forcer le consommateur légal à utiliser des outils dont il ne veut pas forcément ou à devenir pirate…

Non, le DRM n’est pas une réalité, au contraire il est plutôt en recul (“sans DRM” est un bon argument de vente pour le livre numérique, sur la musique le DRM a fini par sauter, et Apple a lâché son format… ) et cette affaire de html5 est une tentative des ayant-droit pour lui remettre un coup de fouet. (ajoutons que le DRM, ça engraisse aussi des intermédiaires qui bossent dessus et les titulaires des brevets des DRM… marché créé articficiellement et auto-alimenté… )



Et si tu ne penses pas que les DRM emmerdent le monde, c’est que tu n’as jamais eu la joie d’avoir un lecteur blu-ray sur un PC incapable de lire des films blu-ray… ou que tu n’es pas un lecteur numérique ayant préféré une liseuse qui ne vienne pas d’amazon. (les expériences que j’ai eues avec font que je n’achète plus que du sans DRM…).








yeagermach1 a écrit :



Le systeme de DRM ne permet pas miraculeusement de transformer de la merde en or. Il permet de “proteger” l’oeuvre.



[…]



Plus generalement, les libristes me font penser a des adorateurs de religions qui veulent que tout soit conforme a leur religion et donc avoir le beurre, l’argent du beurre et la cremiere. Pareil pour les adorateurs du proprietaire hein. Je pense au contraire qu’en fonction de nos choix, on a acces qu’a un nombre restreint de choses. Et que la liberté est justement de pouvoir changer nos choix et pas de changer le nombre restreint de choses.







C’est là que nos avis diffèrent. Pour moi le DRM ne permet pas de protéger l’oeuvre, mais bien d’étendre artificiellement les marges dessus en sacrifiant l’interopérabilité. ^^’ On le sait depuis longtemps: le DRM ne protège pas du piratage. Ceux qui téléchargent le font depuis des sources qui ont déjà fait sauter les verrous.

Par contre, le DRM vient empiéter sur les usages légaux puisqu’il empêche de copier le fichier vers le device de son choix , et limite le nombre de devices. (alors même qu’on nous prend une taxe pour copie privée, qui ne peut pas se justifier si on considère le DRM comme une mesure de protection. Qui veut le beurre et l’argent du beurre ?) Dans le cas du streaming, où il ne devrait pas être question de copie, (et l’utilisateur “lambda” ne couple pas d’outils aux buffers de son navigateur/de sa carte vidéo/whatever pour réaliser une copie durant son visionnage de streaming hein…) le drm force à l’utilisation de produits tiers compatibles. C’est ça le problème: ça s’assimile à de la vente forcée (je ne te file mon contenu que si tu disposes du device x qui supporte mon DRM).

À mon sens ça n’a rien à voir avec la philosophie libriste (je suis pour la promo du libre, mais pas contre le proprio pour autant. ) mais avec le droit du consommateur.

C’est quelque chose qu’on ne peut pas faire entrer dans le standard du web, car contraire à ses principes. (le contenu fourni sur le web doit pouvoir être lu de la même façon )

Comme je l’ai déjà dit, ils ont compris que l’utilisateur voulait leurs contenus sur le web, mais ils veulent faire assumer une part des coûts initiaux et de la maintenance de leur diffusion à tout le web (comme ils le font avec les constructeurs de lecteurs…).








yeagermach1 a écrit :



Disney -&gt; Jack Carter.



Meme dans les grosses productions, etre bénéficiaire c’est pas acquis loin de la.







(oui, désolé, je me suis laissé emporter à la rédaction ^^‘)

On est d’accord là-dessus, mais on oublie que le rôle du producteur c’est de prendre un risque. C’est pour ça que les règlementation lui permettent de toucher un jackpot quand ça marche: pour compenser les échecs à côté. Malheureusement cette intention originelle a été complètement gauchie, et on a des producteurs qui voudraient pouvoir à la fois faire de la merde et gonfler artificiellement leurs revenus dessus.

En leur donnant des outils de plus en ce sens, le public y perd de tous les côtés.








Drepanocytose a écrit :



Alors, prends un bouquin : en poche, petit format, c’est beaucoup moins cher que exactement le même, en gros format, avec plus de papier et une jolie reliure.

Ce qui change c’est pas l’oeuvre, c’est le support, le cout du transport, le cout du stockage.



Edit : ien sur dans le cout des deux il y a le cout de la retribution de l’artiste, evidemment. Qui est le même pour les 2, ou devrait l’être. Mais c’est très souvent loin d’être majoritaire dans le cout.







J’ai déjà fait un pavé et je devrais m’arrêter là, mais juste pour rebondir là-dessus:

les droits d’auteurs se composent de deux parties, un “à-valoir” versé comptant par l’éditeur (pas très gros, surtout pour un auteur qui débuterait. Pas de quoi payer le temps passé sur l’écriture) et des “droits d’auteurs” qui sont, de façon un peu aberrante, un pourcentage fixe du prix de vente de l’objet. Ainsi, sur une réédition à moins cher, alors même que le niveau “d’intervention” du créateur n’a pas baissé (l’économie se fait sur l’objet, pas sur l’oeuvre), son niveau de rémunération sur cette copie baisse quand même.

(enfin, ça c’est la théorie, faut voir après que certaines maisons d’édition n’ont pas de division poche et qu’il y a passage des droits à une autre maison pour le poche, ce qui peut entrainer renégo des droits. Il y a aussi des contrats où la part du créateur augmente au nombre de copie vendues, ce qui fait encore un calcul différent. Mais pour en arriver là faut déjà être un auteur “à succès”, donc pas dans la majorité ^^‘)








arno53 a écrit :



Oui l’economie de rareté ne marche pas pour le numerique mais on a quoi a proposé en face ?



L’ingenieur son, le cameraman, le monteur, les acteurs, les auteurs, les journalistes, [inserer ici un metier en rapport avec la creation numerique] ne travail pas gratuitement …



Si on pouvait se passer de DRM, on serait tous heureux mais comment être sur que le créateur soit rémunéré a sa juste valeur, lui permettant de continuer a créer ? Je ne pense pas que les dons pourrait marcher (surtout en periode de crise economique …)







Ne pas oublier que ceux qui réclament ces DRM sont de gros producteurs. Pour ces gros producteurs, dans le cas des films, les entrées cinéma (qui rappelons-le, font de plus gros chiffres chaque année malgré le piratage et l’augmentation des prix…) compensent généralement le budget, voire le dépasse. La distribution après, elle vient soit pour augmenter potentiellement à l’infini la mage déjà faite (avec les produits dérivés, etc, etc), soit pour tenter de rattraper un flop quand ça n’a pas marché.

Pour les séries, on a un cas un peu similaire, car la télé, comme le ciné, engrange son fric dessus grâce à la pub, et dépend donc de son exclu dessus. C’est là qu’on est emmerdé en France (et dans le monde) et la raison pour laquelle on a pas de service comme Netflix: autant Netflix va pouvoir aller diffuser après la chaîne initiale suite à un accord avec celle-ci, et leurs revenus vont se complémenter, autant permettre l’accès en France au même moment dévalue la série pour les chaînes françaises (pas d’exclu sur un truc hot -&gt; pas moyen de vendre cher l’espace pub). (Disons que c’est ce qu’ils racontent, après, faut voir quelle proportion de gens regardent la VO et quelle proportion attend la VF quoiqu’il arrive) C’est pas une affaire de DRM, c’est une affaire de gros sous et de contrats sur la diffusion des séries. (et aussi le fait qu’en France, on préfère acheter avec un délai des productions qui marchent à l’étranger en se mettant un monopole dessus plutôt que de financer des prods françaises… ce que j’ai toujours trouvé con: pourquoi ne pas faire des séries qui déchirent et les exporter plutôt ? Je ne crois pas qu’on manque de talents… mais faut les trouver, les payer, et prendre un risque… ce qui est censé être le taf d’un éditeur de contenu/producteur cela dit…)



Après, pour les plus petits acteurs… et ben on les entend pas. Et c’est bien dommage.



J’ai aussi vu dans les comments une mention aux plug-ins tels que flash et silverlight: en l’état actuel de la proposition, elle va vers plus de plug-in (un par acteur implémentant son DRM…) et non moins. Hint: Adobe est à la fois un gros acteur du DRM, un gros acteur de la vidéo, et a montré son intérêt pour HTML5… Nan, ça ne va pas débarrasser vos navigateurs de plug-in Adobe tel que flash player. Par contre, avec un plug-in tiers par service, vous allez vous retrouver avec deux cas de figure:

les services qui vont déléguer à un tiers leur gestion de DRM, donc un ou deux gros plug-in sur le marché (au hasard, adobe, amazon, google, apple, voire microsoft…) et ceux qui vont faire les leurs. Maintenant, qui fera l’effort de maintenir son/ses plug-ins à jour pour toutes les versions de tous les navigateurs sur tous les systèmes ? Sans vouloir faire de procès d’intention, je dirais très peu d’acteurs. Et paf, on se retrouve avec un web où tu es obligé d’avoir certaines configs / certains logiciels pour profiter de tes contenus légaux.

Bon, on peut imaginer qu’une spec centralisée par le W3C facilite la création de plug-ins compatibles, mais on ne peut être sûr de rien, et on a pas affaire à des gens qui nous ont habitué au meilleur… (par exemple, heureux possesseur d’un nokia lumia, j’ai dû freiner mon utilisation de certains services google (ce qui n’est pas forcément un mal cela dit) parce que google se branle de windows phone et se refuse à fournir des applis dessus)



Je trouve que le marché du mp3 est un bon exemple de ce qui peut se faire sans DRM. Mais il a l’avantage de ne pas avoir ces contraintes d’exclu de diffusion qui existent pour les vidéos. Avec la musique, on commence par l’écoute (en radio, en CD, diffusion publique donc), puis on va au concert des artistes qu’on aime. Avec la vidéo, on est à l’inverse: il y a d’abord les diffusion “privatisées” (ciné, télé), puis les diffusions larges. D’où l’origine de ces foutus problèmes d’accès avec monopoles artificialisés auquel le net a fait mal en permettant la transmission des contenus partout sur la planète. Le souci de l’industrie vidéo, c’est que contrairement à la musique, la version “privatisée” (qui brasse des soussous) n’a pas suffisamment de valeur ajoutée pour résister à une précédence de la diffusion de masse (enfin, pour le ciné, ça se discute, faudrait tester, mais pour la télé, c’est clair. ). Si les ayant-droits réfléchissaient en ce sens, les choses pourraient peut-être évoluer.



Ma conclusion serait: les DRMs sont en majorité useless, ce sont des passoires, ils bloquent l’utilisateur niveau choix de support. Bref, c’est de la merde. Leur seul avantage, c’est que les ayant-droits se sentent (même si c’est à tort) plus safe avec. Si on prend l’exemple de la musique ou du livre numérique, les éditeurs ne se seraient peut-être pas lancé sans les DRM. Quitte à les enlever après, car une fois que les utilisateurs “lambdas” se sont rendus compte que c’était la galère pour eux, “sans DRM” devient un argument de vente.

Mettre ça dans des specs web W3C, qui doivent être interopérables par nature, je suis contre. Ça revient à les officialiser (et à balancer une partie des coûts et responsabilités des ayant-doits qui les veulent dans la tronche des acteurs du web sans les rémunérer aussi…).


Pfiou, que de commentaires et d’amalgames bizarres °o°



Bon alors la POO, c’est un paradigme comme un autre.

Que le langage soit “orienté objet” (en fait pour un langage on devrait dire “orienté classes” pour éviter la confusion) ou orienté prototype, ça n’empêche pas de faire de la programmation orientée objet. Ça n’oblige pas non plus à en faire. Pour vraiment faire de la POO, il y a toute une série de principes à comprendre et respecter, et je vois tous les jours des devs clamant faire de la POO faire n’importe quoi… (code intestable parce que dépendances instanciées direct dans les objets, hiérarchies d’héritages absolument infâmes, race conditions à gogo sur des objets partagés…). Pour moi les classes maniées par un mauvais dev, c’est un outil aussi dangereux qu’un typage dynamique. J’ai vu aussi une mention au fonctionnel: c’est pareil, on peut avoir un “style fonctionnel” de programmation dans n’importe quel langage et tirer parti de l’expressivité qui va avec. Pas besoin d’avoir un langage “orienté fonctionnel” pour faire du fonctionnel, même si ça facilite la vie. (javascript n’est pas vraiment “orienté fonctionnel”, il ne suffit pas d’avoir les fonctions en first classe pour ça. )

Pour moi, un dev se doit d’apprendre proprement un max de paradigmes et constructs, et de comprendre à quoi ils sont bons, de façon à en tirer le meilleur parti.

Au passage, je vous conseille Functional Programming for the Object Oriented Programmer de Brian Marick https://leanpub.com/fp-oo): apprendre les bases du paradigme fonctionnel en réalisant avec, pas à pas, un moteur d’objet, c’est fun, et ça permet de piger pas mal de trucs.

Après, typage faible et dynamique vs fort et statique, c’est un autre souci. Le gros avantage du premier, ce n’est pas juste que votre compilo va vérifier les types, c’est surtout que vous pouvez faire cette vérif à la volée au fil du code et utiliser des outils de productivité et d’analyse qui se basent dessus. Ça, c’est un gain de temps considérable. Mais qui ne vous dispense pas de faire des tests, parce que ça ne choppe pas tout. En fait, le gros problème de certains inconditionnels du statique, c’est de développer un faux sentiment de sécurité et de devenir laxistes alors qu’il reste un tas de truc qui peuvent vous exploser dessus. Surtout si vous les utilisez pour du web, qui est beaucoup plus dynamique par nature.

Ainsi, votre code serveur en web tourne obligatoirement en multi threading, et les erreurs là-dessus, c’est au runtime. Pareil pour les templates des vues: ils comportent des éléments dynamiques qui vous pètent à la tronche au runtime. Les langages mettent à votre disposition des api de reflections, et quand on les utilise (mal), encore une fois, runtime. Etc. Un bon développeur habitué à un langage dynamique, il sait tester là où il faut pour éviter que les trucs ne lui explose au nez, parce qu’il n’a jamais d’autre filet de sécurité que ceux qu’il se crée.

Enfin bref, tout ça pour dire que tout langage a ses avantages et inconvénients, l’important c’est de les connaître, et pour ça il faut pratiquer. Tout pratiquer.

De toute façon, un développeur en langage de plus bas niveau dira qu’on en a tous des petites, parce que lui non seulement il a pas de typage fort, mais il a même pas de garbage collector, et pourtant c’est grâce à son code que le reste tourne…

Vive les trolls xD

Sinon, pour en revenir à la news, je trouve ça cool de la part de jquery de conserver les deux branches. Rappelons pour les SI qui tournent encore avec que le support de windows XP s’arrête bientôt…

Heureux possesseur d’un lumia 920, je ne peux qu’approuver le choix de Microsoft: Nokia fait un boulot du tonnerre.

Par contre s’ils veulent gagner en parts de marché, je pense qu’il va falloir que MS fasse du meilleur boulot au niveau des partenariats avec les développeurs tiers, surtout pour les réseaux sociaux (les applis facebook et twitter de base… eurk)… Le cercle vicieux du “les gens achètent pas, ça manque d’applis considérées comme des musts -&gt; les devs portent pas les applis, ça manque d’audience” :/

Sans compter Google qui ne fait rien pour aider à l’intégration de ses services sur l’appareil (pour des raisons évidentes ^^’ )

Personnellement je reste toujours dubitatif sur les opés de comm’, d’où qu’elles viennent.

Il faut bien admettre que Niel est le roi de l’effet d’annonce, et pas toujours à bon escient compte tenu de la qualité de service proposée. (on se souviendra de la grosse comm’ freebox V6 par exemple, qui a alimenté les news techno pendant très longtemps avant la sortie, pour finalement disparaître très rapidement ensuite. Et un peu comme leur service mobile, c’est sorti sans être 100% au point au final)

Pour faire de temps en temps un peu de support pour des gens pas forcément doués avec les nouvelles technos (pas mal de monde ici doit connaître la classique “oh, t’es informaticien, tu dois pouvoir me dépanner alors.” “nan mais je suis programmeur, pas électronicien, sys op ou ingé réseau…” “nyu ?” “laisse tomber, je passerai voir…” ) ce que j’ai pu voir de free ne m’a jamais donné envie de passer chez eux.

En revanche, comme d’autres l’ont dit, je suis content de ce qu’ils font pour le consommateur. Avec les tarifs pré-free, je n’aurais jamais eu de connexion au net perso lorsque j’étais étudiant. Et sans leur incursion dans le marché de la téléphonie mobile, peut-être que les offres sans engagement avec un tas de data qu’on a désormais sous la main n’auraient jamais vu le jour. J’apprécie de ce fait leurs coups de pied dans la fourmilière. (il faut toutefois faire attention à ce que l’ARCEP les tiennent à l’oeil et maintienne un contrôle strict sur tout ce petit monde, histoire de ne pas voir apparaître des modèles de vente à quasi perte qui pousseraient les opérateurs à tuer complètement l’emploi et la qualité de service pour rester compétitifs. )







jrbleboss a écrit :



C’est vraiment indispensable pour faire de l’info poussée : i.e. pas du dév web, etc… Par ce que la vraie question est là, ce que font 99% des dévs n’a rien de complexe.







Ce genre de réflexion à l’emporte pièce est un truc qui m’a toujours horripilé. “Nan mais dev web, c’est pas complexe, vous faites juste des sites”. “Mais, tu fais pas des moteurs graphiques ou des trucs avec des chiffres partout ? Mais tu codes pas alors pour de vrai alors !”

En fait, ce qu’il faut voir, c’est que le développement logiciel et l’étude de l’informatique sont des métiers interconnectés, mais différents.

D’ailleurs chez les anglo-saxons ce sont deux cursus différents, le “analyst programmer/software engineer” n’est pas le “computer scientist”.

Et le boom des “web agencies” peu scrupuleuses (je ne dis pas que c’est le cas de toutes) qui font passer pour du développement l’installation d’un thème sur un CMS n’a pas aidé à donner aux devs web leurs lettres de noblesse.

C’est pour cette raison qu’on voit beaucoup de jeunes développeurs allant vers le web en se disant que “c’est facile” soit se faire sous-payer chez des bricolos, soit se casser les dents dans une vraie boîte: le web, c’est complexe. Pour être un bon dev web, il faut connaître son algo, connaître son archi, connaître son réseau et ses protocoles… c’est un métier qui n’est pas “moins complexe” que travailler en bas niveau, juste différent. Pas pour rien que les tests d’entrée chez les géants du web sont parmi les plus raides de l’industrie…


Boarf, l’initiative est toujours bonne à prendre, ça fera 1000 nouveaux devs de plus par an quand ça sera lancé, et puis voilà. En tant qu’autodidacte, j’aurais apprécié qu’une telle initiative existe quand j’ai décidé de me lancer professionnellement dans l’info.

Sinon, je ne dirais pas que les écoles ne servent à rien, mais elles ne sont tout de même pas adaptées à tout le monde, et ne sont pas une condition sine qua non pour avoir un taf.

En région parisienne, un développeur compétent trouvera du boulot avec un salaire décent sans trop de souci. Quand je dis compétent, pour moi ça recouvre une base d’algo, la maîtrise d’au moins un paradigme (pour l’employabilité facile: l’objet. Le fonctionnel monte mais les recruteurs n’ont pas encore intégré ça dans leurs buzzwords), au moins une stack (entendre par là un ensemble langage + outils permettant de construire un produit autour de ce langage sur une ou plusieurs plateformes) et des notions de bdd. Il faut pouvoir montrer qu’on pige les concepts et qu’on se tape du langage en lui-même.

Dans une optique d’employabilité en autodidacte, privilégier pour votre première stack .Net, Java ou du C/C++ pour de l’embarqué. On trouve aussi des postes sur du Ruby on Rails ou du Python/Django (mais moins, et surtout de la startup. Ce qui n’est pas un mal en soi, mais plus risqué au démarrage.). Comme de juste, en ce moment, le mobile boome. Si vous visez le web, n’omettez évidemment pas html, js, css.

Le reste, ça s’apprend sur le tas.

Avec ça et la capacité à vous exprimer correctement, vous êtes les rois du pétrole. Il ne faut pas s’attendre à trop la première année, mais si vous faites vos preuves, ça monte vite (sauf dans les grosses boîtes monolithiques avec des systèmes d’échelons rigides. )

Les entreprises sont en permanence sur les dents.

Dans un tel contexte, la raison pour laquelle Niel monte son truc est évidente: on manque de devs pour être compétitfs, du coup la compétence se monnaie cher (sans parler des frais occasionnés par les recours aux SSII ou aux recruteurs externes).

Franchement, le filtre diplôme, c’est juste pour le montant de votre première, voire vos deux premières années de salaire. En fait, les boîtes on tellement peu confiance en le travail des écoles qu’on doit être la seule profession dans laquelle les candidats sont testés à l’entrée sur leurs compétences techniques et n’ont pas un “simple” entretien RH (alors que merde, il y a la période d’essai pour ça). Du coup, même si c’est un peu vexant quand tu peux justifier de quelques années d’xp, c’est une sacré chance pour ceux qui n’ont pas pu/voulu faire d’études.







ra-mon a écrit :



wow, l’infini ;) l’est fortiche ce google :)

Mais il doit profiter d’une autre technologie que le simple stantdard RSS pour faire ça non ? Parce qu’à ma connaissance, le fichier xml auquel un client RSS “normal”s’abonne ne contient pas tous les articles depuis sa création…







Je confirme que google reader, lors de l’abonnement à un flux le met à disposition pour l’utilisateur depuis son origine. Et si un de tes suivis cesse son flux, tout l’historique reste dispo.

Niveau méthode, boarf, c’est pas si “fortiche” que ça, juste qu’ils indexaient probablement les flux de façon centralisée dès que quelqu’un s’y abonnait pour la première fois par l’intermédiaire de reader, pour ensuite faire grossir ces flux en faisant un merge du nouveau contenu plutôt qu’en remplaçant complètement le xml. De là, je pense que chaque utilisateur s’abonnant à l’un de ces flux était en réalité abonné au flux correspondant dans le central Google, avec une petite surcouche de données personnelles (lu/non lu, favori, etc.).

De plus, google pouvait également profiter de son service d’indexation du web et de feedburner pour capturer un flux dès sa mise en ligne.

La méthodo est super simple, juste que ça nécessite la puissance de feu d’un google (stockage et indexation) pour être pérenne en étant gratuit (enfin, comme on peut le voir maintenant, même avec google, pour le côté pérenne on peut se brosser).


Pour Looper, je trouve plus pertinente la critique de Mr Odieux [http://odieuxconnard.wordpress.com/2012/11/04/loupeurs/ ]…

Les goûts et les couleurs, tout ça…