votre avatar Abonné

FennNaten

est avec nous depuis le 6 octobre 2008 ❤️

140 commentaires

Le 14/01/2020 à 10h 54







alain_du_lac a écrit :



C’est vrai que 150 000 euros * 40 ministres = 6 MF, cela va mettre la France sur la paille ! !

C’est fou comme il y a des gens qui ont du temps à perdre, histoire de se faire mousser sur un sujet sans importance, sauf à alimenter les réseaux sociaux et les journalistes en mal de copie <img data-src=" />





Ce n’est pas du tout le montant de l’enveloppe qui est en question ici, c’est l’impossibilité de vérifier:




  • le respect des montants alloués

  • l’usage exact qui en est fait



    Les citoyens devraient avoir le droit de savoir comment l’argent public est dépensé, et devraient pouvoir faire le contrôle facilement.


Le 13/12/2019 à 15h 46







fred42 a écrit :



Le problème principal est donc le gars responsable de la sous-traitance du bazar et pas le dev. OK



C’est à ce gars d’exiger que ça soit convivial et que ça ne présente pas à nouveau la bannière quand ce n’est pas nécessaire par rapport au RGPD. S’il ne le fait pas, il se fout de ses utilisateurs et devrait être viré.





Si seulement c’était aussi simple. Dans le monde des grosses entreprises ça se passe plus souvent comme ça:




  • le responsable expérience utilisateur signale que l’expérience est toute pourrie

  • le responsable de la négociation avec le prestataire demande au prestataire la possibilité de faire le changement

  • la main passe aux entité juridiques et leurs experts techniques. Si le juridique estime que le comportement est justifié par l’interprétation de je ne sais quelle ligne du texte, on peut s’arrêter là. En l’absence de précisions et de jurisprudence on reste à la lettre de la loi pour être en risque 0. (je ne sais pas si c’est le cas ici, mais il pourrait y avoir une clause mal formulée qui empêche l’état de validation d’être considéré comme un cookie ne nécessitant pas de consentement. Malheureusement, ce n’est pas parce qu’un truc semble évident d’un point de vue technique ou même de bon sens que ça l’est juridiquement)

  • s’il n’y a pas d’opposition du département de conformité juridique, vient la question du “mais combien ça coûte”, et ce sont les départements d’achats qui vont avoir leur mot à dire (est-ce que c’était dans le budget ? est-ce que le bénéfice justifie le coût ? ). Là le niveau de souplesse dépend des boîtes. Globalement si le prestataire présente un devis jugé élevé et si le responsable UX ne peut pas garantir que le comportement actuel fait perdre de l’argent, il y a peu de chances que ça bouge.



    &nbsp;

    &nbsp;





    ndjpoye a écrit :



    Merci pour ces explications intéressantes.



    Au final, on en revient à un mal assez rependu. L’organisation de tout ça s’est bien complexifié avec le temps et comment ça, c’est un peut la faute à personne. Je dis pas ça contre toi, c’est juste un mal répandu. Est ce la faute du prestataire ? Des personnes qui ont qui ont choisi ce prestataire ? Des équipe Analystics et/ou business qui veulent tellement de choses que ça oblige à choisir ce type de presta ? etc.….

    Problème récurrent, et pas qu’en informatique&nbsp;<img data-src=" />





    Oui, la dilution de responsabilité est un mal bien connu, en politique comme en entreprise ^^”

    Après il ne faut pas se leurrer, la solution gagnante, c’est celle qui offre le meilleur équilibre entre conformité légale&nbsp; et prix, et dans la composante “prix” sont pris en compte tarifs du prestataire, image de marque, relations publiques, importance des analytics dans le pilotage de l’activité, ventes perdues par rebond utilisateur…

    Ce sur quoi je veux surtout insister, c’est sur le fait qu’il faut se retenir de sursimplifier, en tant que techniciens on a souvent tendance à se dire “nan mais pour faire ça c’est juste quelques lignes de code, aucune raison que ça pose problème, ils font forcément expès de se planter”. On a également tendance à considérer que si un truc nous irrite, ça irrite forcément des tas de gens, et donc ça devrait être résolu. Sauf que non, j’ai tous les jours l’occasion de voir que des UX que j’estimerais inacceptables sont parfois tolérées voire préférées par la grande majorité des utilisateurs.

    Aussi, abstenons-nous de jugements hâtifs basés sur nos biais cognitifs personnels. Souvent chaque acteur a (de son point de vue) de très bonnes raisons d’agir comme il le fait, sans qu’aucune de ces raisons ne soit de la malveillance ou de la bêtise.


Le 13/12/2019 à 15h 10







Edtech a écrit :



Tu mets un header “Content-Security-Policy” bien restrictif au niveau du serveur (plus efficace qu’au niveau du site web), et tout ce qui est ajouté par les tiers ensuite sera bloqué par les navigateurs. Le tour est joué ! 😁





Là où je bosse on a effectivement des discussions autour de l’usage de CSP, on s’en sert déjà pour éviter certaines classes de pb de sécurité, on voudrait étendre pour ajouter du contrôle sur ce qu’il se passe côté tag manager. Après, ça nécessite pas mal de négo entre équipes business, sécurité, juridique et IT.


Le 11/12/2019 à 14h 52

Alors, pour bosser du côté de ceux qui font dans les gros sites de ecommerce, je pense que les commentateurs ici loupent quelques trucs fondamentaux sur le fonctionnement des boîtes (et donc du web) à une certaines taille. (genre quand on a des groupes qui s’étalent sur plusieurs marques et plusieurs pays avec leurs marchés locaux)

&nbsp;

Ce ne sont pas les développeurs qui mettent directement en place tout ce qui est cookies, traceurs, régies pubs, etc, etc. Ce serait tout simplement ingérable de traiter toutes les demandes des équipes business et analytics.

Ce qu’il se passe, c’est que côté dev, on intègre trois choses (niveau cookie en tout cas, pour ce qui est du reste du RGPD il y a encore d’autres actions à effectuer pour la conformité, mais c’est une autre histoire):




  • les cookies pour la session et les features de la plateforme ecomm’ qu’on utilise (ceux qui sont appelés “fonctionnels” dans les bandeaux et qui ne se refusent pas donc)

  • un “data layer” côté client. En gros il s’agit d’un objet javascript unique (donc côté navigateur) dans lequel on va enregistrer des évènements en suivant une spécification (notamment de nommage et format) fournie par l’équipe analytics (“quand l’user fait ça, on enregistre ça sur l’objet, quand tel truc se passe, en enregistre ça, etc.”). A ce stade tout reste dans le navigateur.

    &nbsp;- le code d’intégration d’un prestataire qu’on appelle un “tag manager” (le plus souvent c’est google tag manager), qui va permettre ensuite aux équipes analytics et business de gérer tout le reste. En gros il faut voir ça comme un “trou invisible” dans les pages, qui permet au métier d’installer les prestataires qu’ils veulent (qui vont injecter leur propre code dans ce “trou”). Un des prestataires installés (généralement google analytics) aura pour but “d’écouter” l’objet “data layer” de l’étape précédente pour générer des metrics non-partagées à des tiers.&nbsp;

    &nbsp;

    Partant de là, à votre avis comment est-ce qu’on fait pour gérer cette fameuse “bannière cookie” qui casse les pieds à tous le monde avec son expérience utilisateur dégueulasse ?



    Si vous avez répondu “on ne le gère pas, on passe par un partenaire tiers”, vous avez bien compris comment ça marche :)



    Comme les développeurs n’ont aucun moyen de savoir quels traceurs ou outil d’analytics le business installe via son tag manager, ils n’ont pas moyen non plus de gérer le consentement pour ces traqueurs.&nbsp; On fait donc appel à un partenaire supplémentaire, qui va permettre de gérer via un backoffice dédié les autres partenaires actifs, et fournir en temps réel une bannière de gestion des consentements (garantie conforme à la législation).

    Voilà qui vous explique aussi pourquoi toutes ces bannières se ressemblent (et comportent souvent un “powered by xxx” ).



    Contrairement à ce qu’on pourrait penser, les entreprises qui ne font pas directement leur beurre avec les traceurs ne se torchent pas avec la conformité, mais généralement elles n’ont pas d’équipe technique interne dédiées pour traiter chaque point, et cela se retrouve (plus ou moins bien) sous traité.

    Donc sachez que quand vous vous retrouver avec la popup chiante qui se réouvre et qui est mal foutue, ce n’est pas une volonté des sites d’avoir l’utilisateur à l’usure ou de faire un pied de nez au législateur en interprétant la loi de travers, c’est juste une conséquence systémique de l’organisation interne des entreprises et de la course aux économies: on paie le prestataire qui fournit l’outil le mois cher tout en garantissant la conformité + le fait que ses serveurs vont tenir la charge et ne vont pas péter la fonctionalité des sites.



    ( attention, je ne dis pas non plus que tous les gestionnaires de sites sont de bonne foi et que personne ne cherche à contourner la législation. Il y a toujours de mauvais élèves en mode “on va poser une bannière pour faire genre et parier que personne ne fera de vérification approfondie” )



    &nbsp;

Le 14/11/2019 à 10h 37

Dans ma boîte on a une politique de télétravail hebdo (cadre ou non cadre idem, jours fixes ou flexibilité à déterminer par avenant au contrat), sous condition d’avoir un poste éligible (=pouvoir avoir des jours de la semaine où il n’est pas nécessaire d’utiliser du matériel qui se trouve dans les locaux de l’entreprise), d’avoir fini sa période d’essai, d’être joignable sur les horaires de bureau, et avec quand même du présentiel obligatoire chaque semaine.

Les problématiques de confidentialité sont réglées niveau IT, avec des laptops configurés pour (écran avec filtre de confidentialité, DD chiffré, clefs USB chiffrée, VPN, etc.) + smartphone d’entreprise + formation des employés.

Tant que l’entreprise est équipée pour et le personnel formé, ça fonctionne sans problème.

&nbsp;Là où le législateur devrait coller son nez, c’est dans les problématiques d’assurance, dans les incentives au télétravail, et dans l’effort sur le déploiement des réseaux, pas dans les mesurettes déconnectées du réel…

Le 07/12/2016 à 13h 37

Pour faire un peu de mauvais esprit quand même:

“pour accompagner les nouveaux créateurs, futurs Norman ou Cyprien ” =&gt; Personnellement je serais nettement plus convaincu s’il s’agissait d’accompagner les nouveaux créateurs pour qu’ils ne nous servent surtout pas la même soupe que Norman ou Cyprien, création, originalité, tout ça.



Ceci dit, je trouve les éléments de langage assez peu convainquants, mais ça ne veut pas dire que je rejette l’idée de taxe en bloc.



En effet, on peut se poser la question de l’égalité dans l’autre sens:

Dans l’hypothèse admise d’avoir un état légitime pour taxer un produit d’un domaine afin de financer la création dans ce domaine (je précise le cadre car on pourrait me rétorquer que de toute façon “l’exception culturelle” n’a pas lieu d’être de base. ça se discute, certes, mais je pars du principe que ça n’est pas remis en cause)

Ne serait-il pas normal, si on le fait pour le cinéma et la télé, de taxer également les plateforme de vidéo [à condition, en proportion, de financer des projets de création visant ces plateformes au même titre que le reste] ?

ça reste une forme de création audio-visuelle. (je rappelle que le CNC n’englobe pas que le cinéma dans les trucs qu’il finance)

Je trouve que la question mérite d’être discutée, mais pas sous forme d’une décision de taxation, plutôt sous la forme d’une redéfinition des missions du CNC.

Par exemple, une obligation de financer pour une plateforme en fonction du montant collecté sur cette plateforme. (est-ce que ça a du sens ? quid des éléments portables sur plusieurs ?)

&nbsp;

&nbsp;

Le 26/10/2016 à 12h 20







t0FF a écrit :



&nbsp;

&nbsp; <img data-src=" />&nbsp;Non,&nbsp;la sécurité&nbsp;c’est le B-A-BA du chef de projet, voir du MOA (a lui de se faire aider dans cette tâche si ils n’ont pas les compétences). Le dev est responsable de la qualité du code qu’il fournit (qui n’est qu’une partie infime de la sécurité). Il n’est absolument pas responsable de l’ensemble de la sécurité du projet.





Je dirais même que la sécurité, c’est l’affaire de tous les participants à un projet, sous l’encadrement d’un responsable dédié.

Et c’est particulièrement difficile pour le dev quand tu dois laisser la main à l’extérieur sur une partie des tâches.

“au fait, on a importé la base client de l’ancienne appli, mais on ne veut pas que les clients aient besoin de nouveaux mots de passe” “mais vous les avez importés comment ?” “ben on a exporté ça dans un fichier, qui est passé par le mail de machin, qui l’a mis sur le partage truc, et.” “ok, donc vous avez laissé les hashs transiter par des canaux non secure, on reset tout” =&gt; et là ça rage.

Pareil quand t’as une portion CMS qui permet à des entreprises tierces de déverser des contenus, ou des intégrations avec des prestas, ou des boîtes en charge de la gestion de scripts tiers pour les “analytics”…

Le vecteur numéro 1 c’est très rarement le code en lui-même. Perso si me prenais l’envie de monter une intrusion, avec tout le respect dû aux génies de la sécu qui passent leur temps à attaquer le code des applis pour le trouer, je passerais absolument pas par là, trop fastidieux quand tu peux arriver au même résultat avec un peu de social engineering et un seul maillon faible parmi les humains qui gèrent ta cible.

&nbsp;


Le 18/12/2015 à 19h 26

Parce que je me dois de rendre à César ce qui appartient à César, surtout après avoir râlé précédemment dans ces commentaires sur mon upgrade foireux, une màj est apparemment passée cette semaine et les features défaillantes de mon upgrade win10 sont toutes remises d’aplomb. Ce qui m’épargne donc définitivement la réinstall et me permet de profiter de nouveau de toutes les capacités de ma machine.

Ça n’excuse pas les galères initiales, mais c’est un bon point quand même.

Le 17/12/2015 à 15h 16

Ce commentaire étant plus long que prévu, un petit TL;DR:

J’ai accepté la màj, je regrette d’avoir cliqué. Lisez si vous êtes intéressé par le détail de tout ce qui s’est mal passé, sinon retenez juste que les chances de màj foireuse sont bien réelles.





&nbsp; Grmblbl, pour ma part j’ai cédé et j’ai tenté la màj win7 pro -&gt; win10pro, en espérant que ma machine qui prend un peu d’âge y regagne un peu de vélocité (principalement au démarrage) (ça avait été le cas des machines du boulot en passant de 7 à 8.1).

Et bah je sais pas comment ça se passe en clean install, mais en tout cas l’upgrader aurait pu être mieux fichu :/

La màj a eu l’air de bien se passer, puis première surprise, je peux me rhabiller pour le gain de perfs. Soit.

Deuxième surprise, une augmentation de charge assez significative sur mon disque en post boot. Mwoké.

Je décide de commencer par aller mettre tous les privacy settings dans le mode le plus restrictif, je ferme le panel, je rentre dans la recherche pour aller trouver le truc de partage de wifi qui se trouve dans un autre menu et que je veux shunter… Cortana pop une fenètre pour prévenir que l’assistant va être désactivé à cause de mes paramètres de confidentialité, j’approuve cette désactivation puisque je n’ai pas envie d’être enquiquiné par la pseudo-assistante virtuelle et là pouf, crash machine.

&nbsp;Je reboot… et toutes les features basées sur modernUI sont plantées. Plus de recherche de programme, plus de menu démarrer, plus de edge, plus aucun des panneaux de settings basés dessus (même si j’ai encore accès au paneau de configuration standard).

Un oeil au journal des évènements me confirme que tout élément modernUI que je tente d’ouvre balance un ‘unable to call remote procedure’, mais of course pas moyen de savoir quelle foutue procédure plante. ça doit coûter trop cher ou révéler trop d’info sur le moteur interne de faire des vrais logs d’erreur…

J’ai testé toutes les ‘solutions’ au même type de problématique trouvées sur le net, mais peau de balle, mon souci doit être apparenté sans être exactement le même. Reste plus qu’à réinstall… sauf que j’ai la flemme pour le moment (et pas envie de devoir réinstall tous mes progs derrière). à noter que bien évidemment l’interface de réparation/réinstall/rollback qu’on peut déclencher en pré-load de l’OS se base sur modernUI et donc crashe aussi&nbsp; -_-

Coup de bol, les applis que j’utilise en permanence sont dans ma taskbar, et je passe par la ligne de commande pour le reste, je peux donc globalement me passer de la barre de recherche et du menu démarrer.

Derrière, je décide au moins de me détendre avec uner partie de jeu… of course windows update a décidé que son driver sorti de je ne sais où serait plus compatible avec ma CG que celui du constructeur… tellement compatible qu’aucun jeu n’arrive à trouver l’interface de carte -_-

Un petit tour chez ATI, une réinstall de driver, une désactivation des checks automatiques, et ça refonctionne, mais c’est chiant (et surtout, j’imagine tellement mal mr-tout-le-monde s’enquiquiner avec tout ça).

En bref, pas la meilleure expérience d’upgrade du monde.

&nbsp;

Le 30/05/2015 à 02h 32

Toute l’ironie de la chose apparaît quand on sait que les deux dernières failles découvertes du protocole TLS, permettant de méchants man-in-the-middle, sont dues à des trucs ajoutés pour satisfaire les exigences des USA en terme d’exports des technologies de crypto… FREAK, logjam&nbsp;&nbsp;Merci les mecs de laisser trainer vos vieilles backdoors pour l’usage des black hats à travers le monde…

Le 05/01/2015 à 11h 14

Pour moi, le seul objet connecté qui vaut le coup, c’est celui-là:&nbsp;&nbsp;&nbsp;brew factory <img data-src=" />

(TL;DR: un backend node.js tournant sur un rasberry pi, qui permet de monitorer/contrôler une brasserie maison via une interface web ;)&nbsp; )

Ceci dit, attendons de voir ce qui va ressortir de ce CES. Comme d’autres ici, je suis pour l’instant plutôt dubitatif en ce qui concerne ce label “French Tech”.

Le 23/05/2014 à 23h 34

[HS] Reçu aujourd’hui, un pseudo mail de la bnp avec comme instruction: “pour éviter l’invalidité de votre compte, veuillez télécharger la pièce jointe puis l’ouvrir avec votre navigateur”

En pj un .htm dont la preview dans la boîte mail commence par une balise script…

Mais bien sûr ! xD [/HS]

Le 13/09/2013 à 10h 08



« les artistes-interprètes en cause avaient autorisé l’exploitation de l’enregistrement de leurs interprétations, sous la forme de « phonogrammes publiés à des fins de commerce », la cour d’appel pouvait en déduire « que les autorisations (…) données par les artistes-interprètes incluaient la mise à disposition du public par voie de téléchargement payant »





Si c’est bien formulé comme ça, l’erreur de ces artistes est d’avoir signé une telle clause. La formulation est futur-proof, et couvre tout enregistrement sonore qui se vend, quel que soit le vecteur de diffusion. Le prétexte de l’apparition d’un nouveau vecteur ne tient pas dans ce cadre et, morale ou pas, le tribunal ne peut rien faire: légalement c’est parfaitement valide.

Comme le dit très bien NonMais, tu as choisi le cachet et pas la rémunération sur les ventes, ben tu assumes ce choix.

Après que les contrats proposés soient obligatoirement moisis, c’est un autre problème, mais encore une fois ce n’est pas au tribunal d’intervenir: soit la loi doit changer pour encadrer ces contrats et dire ce qui est abusif ou pas (et ça va y aller sévère niveau lobbying), soit la SPEDIDAM doit encadrer correctement les artistes qu’elle représente et leur expliquer précisément les tenants et aboutissants de ce qu’ils signent, en les poussant à refuser ce qui est considéré comme abusif.

Le 30/08/2013 à 11h 09

[HS]









WereWindle a écrit :



remplace tes crochet en début de com (oui ça viole les règles de la typo, je sais) par des parenthèse et la quote remarche <img data-src=" />



(un HS de grande qualité de chez HS & fils. HS & Fils : hors sujet depuis 1885)







ah, les joies du parsing de bbcode ^^

le délai d’edit est passé, mais je note pour référence ultérieure, thanks !



[/HS]


Le 30/08/2013 à 09h 21

”[…] et surtout, le tarif d’un Mo est de 0,54 euro. 1 Go en itinérance revient donc à 540 euros. Et les autres opérateurs français ne proposent guère mieux, tout au plus pouvez-vous gagner quelques centimes.”



Pour la data et la voix, Orange/Sosh propose depuis juin des packs itinérance ponctuels “pass Go Europe”. Bon, les tarifs sont quand même élevés, et surtout limités dans le temps, mais ça baisse le prix du Go.

10€ -&gt; 100Mo valables 3 jours

20€ -&gt; 400Mo valables 7 jours



Testé pendant mes dernières vacances, le combo du pass 7 jours avec les sms européens gratuits inclus dans mon forfait Sosh, c’est bien le temps d’un voyage.



(edit: retrait de balises quote apparemment inutiles pour la citation de l’article)

(edit bis: les répétitions c’est mal)

Le 26/08/2013 à 12h 49

Merci pour ce programme des festivités. ^^’


Le 26/08/2013 à 12h 38







Maxouille-la-fripouille a écrit :



blablabla… <img data-src=" /> Toujours les mêmes rengaines des geeks rétrograde anti-tablettes, qui le sont parce qu’ils ne veulent pas s’adapter, et qui ne voient que par les tours PC montées soi-même en rejetant tout le reste parce que selon eux c’est pas de la vraie informatique et parce qu’on peut pas choisir son OS (chose qui n’intéresse qu’eux)… <img data-src=" />







ok, je pensais qu’on pouvait avoir une discussion genre argumentée, intelligente et polie, mais tu es juste un fanboy/troll qui fait des amalgames bêbêtes (ne pas vouloir utiliser quelque chose qui est loin d’être indispensable, c’est très différent de “ne pas vouloir s’adapter”, et pointer du doigt les abus n’a rien à voir avec le fait d’être rétrograde… ). Et ben bonne continuation.


Le 25/08/2013 à 13h 04







Maxouille-la-fripouille a écrit :



Mais la question est même pas là! <img data-src=" /> Le gros problème des geeks libristes comme toi qui sont à fond dans leurs délires, c’est que vous assimilez la tablette au PC, alors que ces 2 équipements n’ont rien à voir point de vue philosophie et façon d’utiliser! <img data-src=" /> Les constructeurs m’ont rien mis dans la tête, je regarde juste la réalité et je constate que sur ce genre d’équipement mobile ça a toujours été que les OS sont fermés et qu’on ne puisse pas faire sa “popote perso” au niveau des applis.



Franchement, à part vous ça intéresse qui de pouvoir choisir son OS, choisir sa version d’appli, etc? PERSONNE! Le grand public s’en tape royalement le coquillard de ça, et de toutes façons même si il en avait la possibilité il irait jamais changer l’OS ou choisir sa version d’appli, à part les “quitouche” pour se la péter. Le gros problème, c’est que vous êtes tellement enfermés dans vos délires de geeks que vous n’avez même plus conscience de la réalité, de comment ça se passe dans la vraie vie. C’est pas la première fois que je le dis en +.





Encore une fois: à part vous ça intéresse qui ce genre de considérations? Arrêtez de vous prendre pour le centre du monde! <img data-src=" />







Sinon, tu sais t’exprimer sans être agressif et condescendant ? Ce n’est pas parce qu’on est sur le net que la politesse dans les échanges ne doit pas avoir sa place.

Si tu révises ton histoire, tu constateras que le grand public se tamponne toujours de se faire enfler, ce n’est pas une raison pour ne pas pointer du doigt un problème quand on en voit un. Et ça n’a rien avoir avec le fait d’être un “geek libriste” “dans son délire”.

Le PC, quand un truc commence à merder, si tu n’es pas capable de t’en occuper toi-même, tu as souvent quelqu’un autour de toi qui peut, ce qui pour des machines qui ont une utilisation plutôt “standard”, permet de pas mal prolonger la durée de vie.

La tablette, en général tu peux te brosser, soit tu es sous garantie et SAV, soit tu ne l’es pas et porte-monnaie. La tablette (bon, surtout l’ipad) tu la paies super cher par rapport aux possibilités offertes. Bien sûr, je sais que c’est coûteux de miniaturiser des composants, là n’est pas la question (sauf encore une fois pour l’ipad et sa mega marge), ce qui me gêne c’est l’aspect user = vache à lait. Tu as peut-être les moyens pour remplacer tes appareils régulièrement, et/ou les connaissances pour les maintenir un minimum et les utiliser de façon à ce qu’ils durent, ce n’est pas le cas de la majorité.

À vendre du contenu simplifié avec 0 bidouille possible au “grand public”, on lui apprend qu’il vaut mieux consommer sans se prendre la tête, et que, comme tu le dis si bien, la bidouille c’est un truc de “geek libriste”, c’est hors des normes sociales. Par contre, si t’as pas une tablette par foyer mini + un smartphone par personne, t’as raté ta vie. Dépense, dépense, dépense…

Alors on a parfaitement conscience de comment ça se passe dans la “vraie vie”, merci bien, on le sait ce que les gens préfèrent et à quoi ressemble le marché (je bosse dans le logiciel, dans la boîte on a très bien pigé et depuis longtemps qu’il valait mieux faire de l’appli web / mobile / tablette et viser au plus simple quand une appli est grand public). Avoir conscience n’empêche pas de déplorer.

Après, même si je n’ai aucun cas d’utilisation perso pour la tablette, je n’ai pas la prétention d’interdire à qui que ce soit de faire ce qu’il veut. On verra bien comment ça évoluera.


Le 26/08/2013 à 08h 52

Facebook commence à me les gonfler à vouloir décider à ma place de la pertinence des publications. Entre les contenus sponsorisés qui viennent me polluer, l’ordre chronologique de flux qui saute, certaines publications que je ne vois pas s’afficher…

J’en suis arrivé à changer mes réglages pour ajouter des envois de notifications aux pages/personnes que je veux absolument suivre. Et encore, même ça, il n’y a que 50% environ des trucs que je configure pour qui causent effectivement une notification &gt;&lt;

Si seulement chacun pouvait avoir genre un rss personnel plutôt que ces bouses de réseaux sociaux…

Le 01/07/2013 à 14h 13







MasterDav a écrit :



Tu nous en reparlera quand t’en auras eu marre de farmer les elite <img data-src=" />







Hum, voyons voir, ne serait-ce que pour arriver au premier donjon élite, si mon avancée reste constante… allez, à la louche, on peut compter une petite année xD



J’ai forcément un point de vue de casu, je peux tout juste essayer d’imaginer ce que ça donne pour un hardcore ^^’ En plus je n’en connais pas encore sur TSW, je suis tout noob et j’me suis pas lancé sur les fofos.



En tout cas, pour l’instant je m’amuse, ça me détend après le taf (même si c’est pas évident à deviner quand je me prends la tête sur une énigme xD )


Le 01/07/2013 à 13h 45







anthony-d a écrit :



Hello,



Moi je savoure The Secret World en ce moment. J’ai déjà tué plusieurs centaines de zombies sans vraiment m’en rendre compte grâce au scénario qui pour moi fonctionne bien. C’est très agréable d’y jouer, même si l’Univers de Kingsmouth est oppressant.







+1



Je m’y suis mis il y a peu et c’est un jeu qui vaut le coup. En plus il est passé en mode sans abonnement (l’achat du jeu suffit, et il y a une boutique ig).

Je le trouve plutôt bien balancé, adapté pour différents profils de joueurs, riche en contenu.

Un casu comme moi trouve son compte en solotant doucement le contenu (et en mourrant. Beaucoup ^^’ ) ou en jouant avec des gens croisés au hasard le temps d’une quête ou deux. Je pense qu’il y a aussi largement de quoi faire pour un hardcore gamer, le leveling est très sympa et le endgame a l’air intéressant (‘fin au rythme où j’avance, je ne suis pas près de l’expérimenter). Les optimisateurs en particulier pourront s’amuser à chercher le meilleur build en faisant des combos avec les 500+ skills combinables.



Bref ^^


Le 12/06/2013 à 14h 23

AMHA, la stat la plus marquante est celle du niveau de revenu, et c’est elle qui fait grimper un peu la part “longues études” pour les iphones.

Ce genre d’étude n’est pas très parlant lorsque chaque critère est isolé, pour faire des stats permettant de profiler il vaut mieux avoir des catégories subdivisées (pour calculer des probas en fonction de la possession d’un à x critères, etc).

Là c’est plus de la data du pauvre pour nourrir les trolls qu’autre chose ^^’

Le 07/05/2013 à 12h 36

Aoutch, j’espère que chez Bing, ils ne passeront pas leur trucs de trads incrustés en auto :/ Ils le font dans certaines docs microsoft et c’est casse pied (quand je fais une recherche en anglais, généralement c’est parce que je veux mes résultats en anglais ^^’ )

Sinon, je trouve qu’au lieu de se faire la guéguerre sur des fonctionnalités pas toujours utiles, les deux feraient mieux de se concentrer sur leurs algos d’indexation et de reférencement.

Bon, peut-être qu’il ne s’agit que de moi, mais j’ai l’impression qu’il devient de plus en plus dur de sortir facilement des résultats pertinents lors d’une recherche, en grande partie à cause du sur-référencement de certains sites (grmblblbl de techniques de SEO de mes grmblblblbl), mais aussi à cause de facteurs “naturels” (augmentation permanente du nombre de contenus). Pour limiter ça, le filtre par date est effectivement priceless (on a encore de vieux contenus dépassés qui sont trop bien référencés :/ ). J’attends aussi avec impatience la “recherche intelligente” capable de contextualiser et de prendre en compte cette contextualisation dans la recherche °o° (on peut rêver xD )

Le 03/05/2013 à 09h 44







Seth-Erminatores a écrit :



Est ce que ça fait de ton cas une généralité? Non.

Perso je pense le contraire, le gamers va se monter sa propre config pour être sûr de pouvoir tout gérer par lui même.







Les gens n’ont pas tous les mêmes intérêts et besoins. Sans stats on peut penser ce qu’on veut, ça n’en fera pas une vérité…

Je suis à la fois gamer et développeur, et je sais comment fonctionne ma plateforme, mais je n’ai absolument aucun intérêt dans le tuning de machine (et en plus je ne suis pas doué, alors payer des composants chers pour les cramer, merci bien). Du coup bah je mets la main à la poche pour que d’autres se cognent le boulot à ma place et me filent une garantie sur leur taf par-dessus le marché.



Je connais aussi des gens qui aiment bricoler les machines pour le plaisir de les booster, sans être gamer. Et d’autres qui cumulent les deux.



C’est comme assimiler un amateur de pilotage à un fan de mécanique, il y a un terrain de convergence, mais on peut tout à fait être l’un sans l’autre.


Le 02/05/2013 à 13h 17







CryoGen a écrit :



Ca compte comment dans le cas des portables avec Optimus ? Je ne vois que cette explication pour les GPU Intel <img data-src=" />







Ça c’est une bonne question. Avant de faire sa collecte sur la config, steam prévient et te montre le résultat qu’il va enregistrer. De mémoire j’ai vu intel mentionné au niveau de ma CG dans le dernier et ça m’avait étonné vu que j’ai une Nvidia pour le jeu, puis je me suis souvenu du système à deux CG. Par contre je n’ai pas eu la curiosité d’éplucher tout le truc pour voir si il y avait les infos des deux cartes. J’essaierai d’y penser la prochaine fois.


Le 03/05/2013 à 08h 19







wackyseb a écrit :



Bon étant un super Pro Apple car je déteste Windows 8 et Windows Phone 8, çà me ferait vraiment ch.. d’avoir un IOS7 tout plat.

La mode c’est une grosse conneries (cette année, c’est l’année du flat design !!!).

Et alors on s’en cale que c’est la mode, c’est moche c’est tout.

Pas la peine d’en faire tout un fromage.



Franchement, c’est pareil pour pleins d’interface. Je préfère mille fois avoir du contenu avec interface en 3D avec effet de transparence, de belles couleurs plutôt qu’un truc immonde et tout plat.



Mon Téléphone Pro est un windows phone 8 donc merci je connais. Mais c’est quoi ce système tout pourri !!! Sans rire, c’est tout sauf pratique, les fonctions sociales, bein on s’en fou en milieu pro. Pour afficher les images, le téléphone réfléchit et scanne le dossier comme s’il ne pouvait pas indexer les photos au fur et à mesure.

Windows 8, c’est pareil : Tu change de PC, t’y connais rien en informatique et tu pleur pour qu’un gentil collègue passe te remettre un bon windows 7 car trop c’est trop, ModernUI est très mauvais.







Tout le monde n’a pas les mêmes contraintes pros ni le même workflow ni les mêmes goûts. Dans bon nombre de milieux pros, les fonctions sociales, on ne s’en fout pas, mais alors pas du tout…

Perso j’ai un wp8 et j’en suis très content. L’interface me permet de hiérarchiser les éléments de façon à trouver imédiatement ce dont j’ai besoin, 0 lag, 0 souci. Et pour les photos heuuu… J’ai un lumia 920, mes pages d’images s’ouvrent directement avec tous les thumbnails, sans ralentissement d’aucune sorte, et l’apparition d’une image sur l’écran à la sélection est immédiate…

Après, si tu parles d’affichage dans des apps tierces, là c’est pas le problème de l’OS.



Pour moi le flat design (et comme il a été dit ailleurs, les tuiles sont une des options, pas la seule qui existe), c’est comme beaucoup de chose, le concept en lui-même ne provoque pas forcément la création de trucs moches, bien appliqué ça donne des interfaces sympas, surtout pour le touch. (en desktop avec clavier/souris et grand écran je reste plus dubitatif, mais là ce n’est pas le sujet).

Jusque là je n’ai jamais été fan des interfaces de la pomme, mais je suis quand même curieux de voir ce que ça va donner.


Le 25/04/2013 à 17h 35







yeagermach1 a écrit :



@FennNaten : demain tu accepterais que ton salaire baisse sous pretexte que le marché a changer ? Alors que toi a ton niveau tu vois que c’est pas forcement le cas ?







Il n’y a pas de baisse dans le cas de la situation actuelle. (on a dérivé sur les DRMs en général, mais ce n’était pas le sujet de base)

Je vais essayer en propositions plus simple que ma prose un peu dense ^^’




  • À l’heure actuelle, les acteurs réclamant ces DRM ne sont pas sur le marché concerné par ces DRM (je parle de la situation particulière du html5). Il n’y a donc aucun revenu associé.

  • Ces acteurs voient la nouvelle source potentielle, ainsi que la demande, mais disent “pour qu’on rejoigne ce marché, il nous faut des drm dans la spec de base”

  • Je considère qu’il faut leur répondre “non”: s’ils veulent développer ce marché (le streaming légal), ils le font avec les moyens dispos, sinon tant pis pour eux.



    Là, ils ne demandent pas des DRM pour éviter une baisse de leur salaire, ils veulent des DRMs préventifs pour préserver des revenus qu’ils ne font pas encore…


Le 25/04/2013 à 16h 47

@yeagermach1 : Mais ce marché il n’est pas nécessaire de prouver qu’il existe: c’est déjà le cas ^^’

À l’heure actuelle, la copie est autant voire plus une réalité que le DRM, et le pognon des ayants-droits ne s’envole pas. En France, des éditeurs comme Bragelonne vendent sans DRM et ne s’en portent pas plus mal. La musique s’est passée des DRM, et n’est pas morte.

De plus, la demande pour une VOD de qualité est là.

L’exemple est là, sous le nez de tout le monde. Et si le DRM a reculé, c’est parce que certains lui ont dit “non”, ce n’est pas en l’accueillant à bras ouverts dans le web qu’on va faire changer les choses. En le refusant, on force la mutation du secteur.

Le problème ici est le suivant: on a des gens qui se font un pognon monstre et qui ont une vision “il n’est pas suffisant de faire un bénéfice, le bénéfice de l’année suivante doit être plus gros que celui de cette année, et celui-ci doit être assuré”. Ceux-ci disposaient jusque là pour asseoir leur recette de la possibilité de poser un monopole grâce aux entraves à la diffusion: entraves qu’internet a fait sauter. Plutôt que de chercher des solutions ou d’expérimenter, ils tentent de regénérer artificiellement ces entraves. (Et engraissent des sociétés qui vivent de ça) Entre autre parce que sans ça, le secteur de la télé par exemple va devoir changer et encourager la création plutôt que de capitaliser sur un petit pool. Parce que ça leur remet en tête le fait que le marché est censé être concurrentiel.

Il n’est pas sain de leur laisser une possibilité d’esquive, même illusoire. Il y a un moment où pour apprendre à tenir sur un vélo, il faut retirer les roulettes.

La solution médiane a été pratiquée déjà, il est temps de dire stop.

De plus ce qu’on leur dit, ce n’est pas “passez vous de DRM”, on ne s’attaque pas aux marchés existants, on leur dit “pour les nouveaux marchés ouverts par le web intéropérable, pas de DRM intégré”. C’est quand même différent.



Voir ici (en anglais) pour des gens qui s’expriment mieux que moi sur le sujet et avec qui je suis plutôt d’accord (pour cet article particulier): blog freeculture.org: ne pas se laisser avoir par les mythes sur les DRMs, l’intégration des drm au html5 est une trahison des utilisateurs du web

Le 25/04/2013 à 15h 53







yeagermach1 a écrit :



Maintenant reste le probleme de la diffusion. Aujourd’hui la situation est tel que la plupart des contenus se retrouvent sur le net gratuitement (si ce n’est la totalité) alors que les sources sont “un peu” protegé. Les producteurs de contenus ils voient cela et se disent que si ils protegent plus, c’est la porte ouverte a toutes les derives (et accessoirement a la fin de leur existence). C’est un probleme qu’il faut regler parce que le payant sera toujours plus cher que le gratuit. Meme mettre du contenu exclusif pour le payant ne sert a rien parce qu’il suffit d’une personne pour le rendre gratuit. C’est comme tu le dis plus haut il me semble, l’ensemble du marché qu’il faut faire evoluer mais cela n’arrivera pas en opposant un camp a un autre dans une parodie de debat.



Mettre une gestion des DRM dans les standarts du net c’est juste dire : les drms sont une realité, faisons en sorte de les standardisser pour le confort d’un maximum de gens.







Les producteurs de contenus ne sont pas aussi idiots qu’ils veulent nous le faire croire. Les DRM, aussi standardisés, aussi évolués qu’ils soient, sont complètement inutiles. Je suis sûr qu’ils le savent. Pour que le flux de contenu soit consommé, il doit, à un moment ou un autre, aparaître en clair, et il sera donc toujours possible de le capter à ce moment là. Même si ça se complique un peu, ça ne change rien: tu l’as dit toi-même il suffit d’une source pour que le partage commence. Et il y aura toujours au moins une source. Les seules personnes à être ennuyées par les DRM, ce sont celles qui se procurent légalement le produit (et donc paient…). Un comble. Si le piratage devait tuer leur business, ce serait déjà fait. Avec les dvd, il y a déjà des sources pour tout. Et pourtant leurs revenus n’ont pas plongé. C’est un faux argument. Ajouter le DRM dans les standards du net ne vient rien changer pour le pirate, il vient juste forcer le consommateur légal à utiliser des outils dont il ne veut pas forcément ou à devenir pirate…

Non, le DRM n’est pas une réalité, au contraire il est plutôt en recul (“sans DRM” est un bon argument de vente pour le livre numérique, sur la musique le DRM a fini par sauter, et Apple a lâché son format… ) et cette affaire de html5 est une tentative des ayant-droit pour lui remettre un coup de fouet. (ajoutons que le DRM, ça engraisse aussi des intermédiaires qui bossent dessus et les titulaires des brevets des DRM… marché créé articficiellement et auto-alimenté… )



Et si tu ne penses pas que les DRM emmerdent le monde, c’est que tu n’as jamais eu la joie d’avoir un lecteur blu-ray sur un PC incapable de lire des films blu-ray… ou que tu n’es pas un lecteur numérique ayant préféré une liseuse qui ne vienne pas d’amazon. (les expériences que j’ai eues avec font que je n’achète plus que du sans DRM…).


Le 25/04/2013 à 15h 12







yeagermach1 a écrit :



Le systeme de DRM ne permet pas miraculeusement de transformer de la merde en or. Il permet de “proteger” l’oeuvre.



[…]



Plus generalement, les libristes me font penser a des adorateurs de religions qui veulent que tout soit conforme a leur religion et donc avoir le beurre, l’argent du beurre et la cremiere. Pareil pour les adorateurs du proprietaire hein. Je pense au contraire qu’en fonction de nos choix, on a acces qu’a un nombre restreint de choses. Et que la liberté est justement de pouvoir changer nos choix et pas de changer le nombre restreint de choses.







C’est là que nos avis diffèrent. Pour moi le DRM ne permet pas de protéger l’oeuvre, mais bien d’étendre artificiellement les marges dessus en sacrifiant l’interopérabilité. ^^’ On le sait depuis longtemps: le DRM ne protège pas du piratage. Ceux qui téléchargent le font depuis des sources qui ont déjà fait sauter les verrous.

Par contre, le DRM vient empiéter sur les usages légaux puisqu’il empêche de copier le fichier vers le device de son choix , et limite le nombre de devices. (alors même qu’on nous prend une taxe pour copie privée, qui ne peut pas se justifier si on considère le DRM comme une mesure de protection. Qui veut le beurre et l’argent du beurre ?) Dans le cas du streaming, où il ne devrait pas être question de copie, (et l’utilisateur “lambda” ne couple pas d’outils aux buffers de son navigateur/de sa carte vidéo/whatever pour réaliser une copie durant son visionnage de streaming hein…) le drm force à l’utilisation de produits tiers compatibles. C’est ça le problème: ça s’assimile à de la vente forcée (je ne te file mon contenu que si tu disposes du device x qui supporte mon DRM).

À mon sens ça n’a rien à voir avec la philosophie libriste (je suis pour la promo du libre, mais pas contre le proprio pour autant. ) mais avec le droit du consommateur.

C’est quelque chose qu’on ne peut pas faire entrer dans le standard du web, car contraire à ses principes. (le contenu fourni sur le web doit pouvoir être lu de la même façon )

Comme je l’ai déjà dit, ils ont compris que l’utilisateur voulait leurs contenus sur le web, mais ils veulent faire assumer une part des coûts initiaux et de la maintenance de leur diffusion à tout le web (comme ils le font avec les constructeurs de lecteurs…).


Le 25/04/2013 à 14h 13







yeagermach1 a écrit :



Disney -&gt; Jack Carter.



Meme dans les grosses productions, etre bénéficiaire c’est pas acquis loin de la.







(oui, désolé, je me suis laissé emporter à la rédaction ^^‘)

On est d’accord là-dessus, mais on oublie que le rôle du producteur c’est de prendre un risque. C’est pour ça que les règlementation lui permettent de toucher un jackpot quand ça marche: pour compenser les échecs à côté. Malheureusement cette intention originelle a été complètement gauchie, et on a des producteurs qui voudraient pouvoir à la fois faire de la merde et gonfler artificiellement leurs revenus dessus.

En leur donnant des outils de plus en ce sens, le public y perd de tous les côtés.


Le 25/04/2013 à 14h 08







Drepanocytose a écrit :



Alors, prends un bouquin : en poche, petit format, c’est beaucoup moins cher que exactement le même, en gros format, avec plus de papier et une jolie reliure.

Ce qui change c’est pas l’oeuvre, c’est le support, le cout du transport, le cout du stockage.



Edit : ien sur dans le cout des deux il y a le cout de la retribution de l’artiste, evidemment. Qui est le même pour les 2, ou devrait l’être. Mais c’est très souvent loin d’être majoritaire dans le cout.







J’ai déjà fait un pavé et je devrais m’arrêter là, mais juste pour rebondir là-dessus:

les droits d’auteurs se composent de deux parties, un “à-valoir” versé comptant par l’éditeur (pas très gros, surtout pour un auteur qui débuterait. Pas de quoi payer le temps passé sur l’écriture) et des “droits d’auteurs” qui sont, de façon un peu aberrante, un pourcentage fixe du prix de vente de l’objet. Ainsi, sur une réédition à moins cher, alors même que le niveau “d’intervention” du créateur n’a pas baissé (l’économie se fait sur l’objet, pas sur l’oeuvre), son niveau de rémunération sur cette copie baisse quand même.

(enfin, ça c’est la théorie, faut voir après que certaines maisons d’édition n’ont pas de division poche et qu’il y a passage des droits à une autre maison pour le poche, ce qui peut entrainer renégo des droits. Il y a aussi des contrats où la part du créateur augmente au nombre de copie vendues, ce qui fait encore un calcul différent. Mais pour en arriver là faut déjà être un auteur “à succès”, donc pas dans la majorité ^^‘)


Le 25/04/2013 à 13h 52







arno53 a écrit :



Oui l’economie de rareté ne marche pas pour le numerique mais on a quoi a proposé en face ?



L’ingenieur son, le cameraman, le monteur, les acteurs, les auteurs, les journalistes, [inserer ici un metier en rapport avec la creation numerique] ne travail pas gratuitement …



Si on pouvait se passer de DRM, on serait tous heureux mais comment être sur que le créateur soit rémunéré a sa juste valeur, lui permettant de continuer a créer ? Je ne pense pas que les dons pourrait marcher (surtout en periode de crise economique …)







Ne pas oublier que ceux qui réclament ces DRM sont de gros producteurs. Pour ces gros producteurs, dans le cas des films, les entrées cinéma (qui rappelons-le, font de plus gros chiffres chaque année malgré le piratage et l’augmentation des prix…) compensent généralement le budget, voire le dépasse. La distribution après, elle vient soit pour augmenter potentiellement à l’infini la mage déjà faite (avec les produits dérivés, etc, etc), soit pour tenter de rattraper un flop quand ça n’a pas marché.

Pour les séries, on a un cas un peu similaire, car la télé, comme le ciné, engrange son fric dessus grâce à la pub, et dépend donc de son exclu dessus. C’est là qu’on est emmerdé en France (et dans le monde) et la raison pour laquelle on a pas de service comme Netflix: autant Netflix va pouvoir aller diffuser après la chaîne initiale suite à un accord avec celle-ci, et leurs revenus vont se complémenter, autant permettre l’accès en France au même moment dévalue la série pour les chaînes françaises (pas d’exclu sur un truc hot -&gt; pas moyen de vendre cher l’espace pub). (Disons que c’est ce qu’ils racontent, après, faut voir quelle proportion de gens regardent la VO et quelle proportion attend la VF quoiqu’il arrive) C’est pas une affaire de DRM, c’est une affaire de gros sous et de contrats sur la diffusion des séries. (et aussi le fait qu’en France, on préfère acheter avec un délai des productions qui marchent à l’étranger en se mettant un monopole dessus plutôt que de financer des prods françaises… ce que j’ai toujours trouvé con: pourquoi ne pas faire des séries qui déchirent et les exporter plutôt ? Je ne crois pas qu’on manque de talents… mais faut les trouver, les payer, et prendre un risque… ce qui est censé être le taf d’un éditeur de contenu/producteur cela dit…)



Après, pour les plus petits acteurs… et ben on les entend pas. Et c’est bien dommage.



J’ai aussi vu dans les comments une mention aux plug-ins tels que flash et silverlight: en l’état actuel de la proposition, elle va vers plus de plug-in (un par acteur implémentant son DRM…) et non moins. Hint: Adobe est à la fois un gros acteur du DRM, un gros acteur de la vidéo, et a montré son intérêt pour HTML5… Nan, ça ne va pas débarrasser vos navigateurs de plug-in Adobe tel que flash player. Par contre, avec un plug-in tiers par service, vous allez vous retrouver avec deux cas de figure:

les services qui vont déléguer à un tiers leur gestion de DRM, donc un ou deux gros plug-in sur le marché (au hasard, adobe, amazon, google, apple, voire microsoft…) et ceux qui vont faire les leurs. Maintenant, qui fera l’effort de maintenir son/ses plug-ins à jour pour toutes les versions de tous les navigateurs sur tous les systèmes ? Sans vouloir faire de procès d’intention, je dirais très peu d’acteurs. Et paf, on se retrouve avec un web où tu es obligé d’avoir certaines configs / certains logiciels pour profiter de tes contenus légaux.

Bon, on peut imaginer qu’une spec centralisée par le W3C facilite la création de plug-ins compatibles, mais on ne peut être sûr de rien, et on a pas affaire à des gens qui nous ont habitué au meilleur… (par exemple, heureux possesseur d’un nokia lumia, j’ai dû freiner mon utilisation de certains services google (ce qui n’est pas forcément un mal cela dit) parce que google se branle de windows phone et se refuse à fournir des applis dessus)



Je trouve que le marché du mp3 est un bon exemple de ce qui peut se faire sans DRM. Mais il a l’avantage de ne pas avoir ces contraintes d’exclu de diffusion qui existent pour les vidéos. Avec la musique, on commence par l’écoute (en radio, en CD, diffusion publique donc), puis on va au concert des artistes qu’on aime. Avec la vidéo, on est à l’inverse: il y a d’abord les diffusion “privatisées” (ciné, télé), puis les diffusions larges. D’où l’origine de ces foutus problèmes d’accès avec monopoles artificialisés auquel le net a fait mal en permettant la transmission des contenus partout sur la planète. Le souci de l’industrie vidéo, c’est que contrairement à la musique, la version “privatisée” (qui brasse des soussous) n’a pas suffisamment de valeur ajoutée pour résister à une précédence de la diffusion de masse (enfin, pour le ciné, ça se discute, faudrait tester, mais pour la télé, c’est clair. ). Si les ayant-droits réfléchissaient en ce sens, les choses pourraient peut-être évoluer.



Ma conclusion serait: les DRMs sont en majorité useless, ce sont des passoires, ils bloquent l’utilisateur niveau choix de support. Bref, c’est de la merde. Leur seul avantage, c’est que les ayant-droits se sentent (même si c’est à tort) plus safe avec. Si on prend l’exemple de la musique ou du livre numérique, les éditeurs ne se seraient peut-être pas lancé sans les DRM. Quitte à les enlever après, car une fois que les utilisateurs “lambdas” se sont rendus compte que c’était la galère pour eux, “sans DRM” devient un argument de vente.

Mettre ça dans des specs web W3C, qui doivent être interopérables par nature, je suis contre. Ça revient à les officialiser (et à balancer une partie des coûts et responsabilités des ayant-doits qui les veulent dans la tronche des acteurs du web sans les rémunérer aussi…).


Le 20/04/2013 à 11h 44

Pfiou, que de commentaires et d’amalgames bizarres °o°



Bon alors la POO, c’est un paradigme comme un autre.

Que le langage soit “orienté objet” (en fait pour un langage on devrait dire “orienté classes” pour éviter la confusion) ou orienté prototype, ça n’empêche pas de faire de la programmation orientée objet. Ça n’oblige pas non plus à en faire. Pour vraiment faire de la POO, il y a toute une série de principes à comprendre et respecter, et je vois tous les jours des devs clamant faire de la POO faire n’importe quoi… (code intestable parce que dépendances instanciées direct dans les objets, hiérarchies d’héritages absolument infâmes, race conditions à gogo sur des objets partagés…). Pour moi les classes maniées par un mauvais dev, c’est un outil aussi dangereux qu’un typage dynamique. J’ai vu aussi une mention au fonctionnel: c’est pareil, on peut avoir un “style fonctionnel” de programmation dans n’importe quel langage et tirer parti de l’expressivité qui va avec. Pas besoin d’avoir un langage “orienté fonctionnel” pour faire du fonctionnel, même si ça facilite la vie. (javascript n’est pas vraiment “orienté fonctionnel”, il ne suffit pas d’avoir les fonctions en first classe pour ça. )

Pour moi, un dev se doit d’apprendre proprement un max de paradigmes et constructs, et de comprendre à quoi ils sont bons, de façon à en tirer le meilleur parti.

Au passage, je vous conseille Functional Programming for the Object Oriented Programmer de Brian Marick https://leanpub.com/fp-oo): apprendre les bases du paradigme fonctionnel en réalisant avec, pas à pas, un moteur d’objet, c’est fun, et ça permet de piger pas mal de trucs.

Après, typage faible et dynamique vs fort et statique, c’est un autre souci. Le gros avantage du premier, ce n’est pas juste que votre compilo va vérifier les types, c’est surtout que vous pouvez faire cette vérif à la volée au fil du code et utiliser des outils de productivité et d’analyse qui se basent dessus. Ça, c’est un gain de temps considérable. Mais qui ne vous dispense pas de faire des tests, parce que ça ne choppe pas tout. En fait, le gros problème de certains inconditionnels du statique, c’est de développer un faux sentiment de sécurité et de devenir laxistes alors qu’il reste un tas de truc qui peuvent vous exploser dessus. Surtout si vous les utilisez pour du web, qui est beaucoup plus dynamique par nature.

Ainsi, votre code serveur en web tourne obligatoirement en multi threading, et les erreurs là-dessus, c’est au runtime. Pareil pour les templates des vues: ils comportent des éléments dynamiques qui vous pètent à la tronche au runtime. Les langages mettent à votre disposition des api de reflections, et quand on les utilise (mal), encore une fois, runtime. Etc. Un bon développeur habitué à un langage dynamique, il sait tester là où il faut pour éviter que les trucs ne lui explose au nez, parce qu’il n’a jamais d’autre filet de sécurité que ceux qu’il se crée.

Enfin bref, tout ça pour dire que tout langage a ses avantages et inconvénients, l’important c’est de les connaître, et pour ça il faut pratiquer. Tout pratiquer.

De toute façon, un développeur en langage de plus bas niveau dira qu’on en a tous des petites, parce que lui non seulement il a pas de typage fort, mais il a même pas de garbage collector, et pourtant c’est grâce à son code que le reste tourne…

Vive les trolls xD

Sinon, pour en revenir à la news, je trouve ça cool de la part de jquery de conserver les deux branches. Rappelons pour les SI qui tournent encore avec que le support de windows XP s’arrête bientôt…

Le 17/04/2013 à 16h 24

Heureux possesseur d’un lumia 920, je ne peux qu’approuver le choix de Microsoft: Nokia fait un boulot du tonnerre.

Par contre s’ils veulent gagner en parts de marché, je pense qu’il va falloir que MS fasse du meilleur boulot au niveau des partenariats avec les développeurs tiers, surtout pour les réseaux sociaux (les applis facebook et twitter de base… eurk)… Le cercle vicieux du “les gens achètent pas, ça manque d’applis considérées comme des musts -&gt; les devs portent pas les applis, ça manque d’audience” :/

Sans compter Google qui ne fait rien pour aider à l’intégration de ses services sur l’appareil (pour des raisons évidentes ^^’ )

Le 16/04/2013 à 09h 07

Personnellement je reste toujours dubitatif sur les opés de comm’, d’où qu’elles viennent.

Il faut bien admettre que Niel est le roi de l’effet d’annonce, et pas toujours à bon escient compte tenu de la qualité de service proposée. (on se souviendra de la grosse comm’ freebox V6 par exemple, qui a alimenté les news techno pendant très longtemps avant la sortie, pour finalement disparaître très rapidement ensuite. Et un peu comme leur service mobile, c’est sorti sans être 100% au point au final)

Pour faire de temps en temps un peu de support pour des gens pas forcément doués avec les nouvelles technos (pas mal de monde ici doit connaître la classique “oh, t’es informaticien, tu dois pouvoir me dépanner alors.” “nan mais je suis programmeur, pas électronicien, sys op ou ingé réseau…” “nyu ?” “laisse tomber, je passerai voir…” ) ce que j’ai pu voir de free ne m’a jamais donné envie de passer chez eux.

En revanche, comme d’autres l’ont dit, je suis content de ce qu’ils font pour le consommateur. Avec les tarifs pré-free, je n’aurais jamais eu de connexion au net perso lorsque j’étais étudiant. Et sans leur incursion dans le marché de la téléphonie mobile, peut-être que les offres sans engagement avec un tas de data qu’on a désormais sous la main n’auraient jamais vu le jour. J’apprécie de ce fait leurs coups de pied dans la fourmilière. (il faut toutefois faire attention à ce que l’ARCEP les tiennent à l’oeil et maintienne un contrôle strict sur tout ce petit monde, histoire de ne pas voir apparaître des modèles de vente à quasi perte qui pousseraient les opérateurs à tuer complètement l’emploi et la qualité de service pour rester compétitifs. )

Le 26/03/2013 à 18h 51







jrbleboss a écrit :



C’est vraiment indispensable pour faire de l’info poussée : i.e. pas du dév web, etc… Par ce que la vraie question est là, ce que font 99% des dévs n’a rien de complexe.







Ce genre de réflexion à l’emporte pièce est un truc qui m’a toujours horripilé. “Nan mais dev web, c’est pas complexe, vous faites juste des sites”. “Mais, tu fais pas des moteurs graphiques ou des trucs avec des chiffres partout ? Mais tu codes pas alors pour de vrai alors !”

En fait, ce qu’il faut voir, c’est que le développement logiciel et l’étude de l’informatique sont des métiers interconnectés, mais différents.

D’ailleurs chez les anglo-saxons ce sont deux cursus différents, le “analyst programmer/software engineer” n’est pas le “computer scientist”.

Et le boom des “web agencies” peu scrupuleuses (je ne dis pas que c’est le cas de toutes) qui font passer pour du développement l’installation d’un thème sur un CMS n’a pas aidé à donner aux devs web leurs lettres de noblesse.

C’est pour cette raison qu’on voit beaucoup de jeunes développeurs allant vers le web en se disant que “c’est facile” soit se faire sous-payer chez des bricolos, soit se casser les dents dans une vraie boîte: le web, c’est complexe. Pour être un bon dev web, il faut connaître son algo, connaître son archi, connaître son réseau et ses protocoles… c’est un métier qui n’est pas “moins complexe” que travailler en bas niveau, juste différent. Pas pour rien que les tests d’entrée chez les géants du web sont parmi les plus raides de l’industrie…


Le 26/03/2013 à 17h 44

Boarf, l’initiative est toujours bonne à prendre, ça fera 1000 nouveaux devs de plus par an quand ça sera lancé, et puis voilà. En tant qu’autodidacte, j’aurais apprécié qu’une telle initiative existe quand j’ai décidé de me lancer professionnellement dans l’info.

Sinon, je ne dirais pas que les écoles ne servent à rien, mais elles ne sont tout de même pas adaptées à tout le monde, et ne sont pas une condition sine qua non pour avoir un taf.

En région parisienne, un développeur compétent trouvera du boulot avec un salaire décent sans trop de souci. Quand je dis compétent, pour moi ça recouvre une base d’algo, la maîtrise d’au moins un paradigme (pour l’employabilité facile: l’objet. Le fonctionnel monte mais les recruteurs n’ont pas encore intégré ça dans leurs buzzwords), au moins une stack (entendre par là un ensemble langage + outils permettant de construire un produit autour de ce langage sur une ou plusieurs plateformes) et des notions de bdd. Il faut pouvoir montrer qu’on pige les concepts et qu’on se tape du langage en lui-même.

Dans une optique d’employabilité en autodidacte, privilégier pour votre première stack .Net, Java ou du C/C++ pour de l’embarqué. On trouve aussi des postes sur du Ruby on Rails ou du Python/Django (mais moins, et surtout de la startup. Ce qui n’est pas un mal en soi, mais plus risqué au démarrage.). Comme de juste, en ce moment, le mobile boome. Si vous visez le web, n’omettez évidemment pas html, js, css.

Le reste, ça s’apprend sur le tas.

Avec ça et la capacité à vous exprimer correctement, vous êtes les rois du pétrole. Il ne faut pas s’attendre à trop la première année, mais si vous faites vos preuves, ça monte vite (sauf dans les grosses boîtes monolithiques avec des systèmes d’échelons rigides. )

Les entreprises sont en permanence sur les dents.

Dans un tel contexte, la raison pour laquelle Niel monte son truc est évidente: on manque de devs pour être compétitfs, du coup la compétence se monnaie cher (sans parler des frais occasionnés par les recours aux SSII ou aux recruteurs externes).

Franchement, le filtre diplôme, c’est juste pour le montant de votre première, voire vos deux premières années de salaire. En fait, les boîtes on tellement peu confiance en le travail des écoles qu’on doit être la seule profession dans laquelle les candidats sont testés à l’entrée sur leurs compétences techniques et n’ont pas un “simple” entretien RH (alors que merde, il y a la période d’essai pour ça). Du coup, même si c’est un peu vexant quand tu peux justifier de quelques années d’xp, c’est une sacré chance pour ceux qui n’ont pas pu/voulu faire d’études.

Le 14/03/2013 à 13h 59







ra-mon a écrit :



wow, l’infini ;) l’est fortiche ce google :)

Mais il doit profiter d’une autre technologie que le simple stantdard RSS pour faire ça non ? Parce qu’à ma connaissance, le fichier xml auquel un client RSS “normal”s’abonne ne contient pas tous les articles depuis sa création…







Je confirme que google reader, lors de l’abonnement à un flux le met à disposition pour l’utilisateur depuis son origine. Et si un de tes suivis cesse son flux, tout l’historique reste dispo.

Niveau méthode, boarf, c’est pas si “fortiche” que ça, juste qu’ils indexaient probablement les flux de façon centralisée dès que quelqu’un s’y abonnait pour la première fois par l’intermédiaire de reader, pour ensuite faire grossir ces flux en faisant un merge du nouveau contenu plutôt qu’en remplaçant complètement le xml. De là, je pense que chaque utilisateur s’abonnant à l’un de ces flux était en réalité abonné au flux correspondant dans le central Google, avec une petite surcouche de données personnelles (lu/non lu, favori, etc.).

De plus, google pouvait également profiter de son service d’indexation du web et de feedburner pour capturer un flux dès sa mise en ligne.

La méthodo est super simple, juste que ça nécessite la puissance de feu d’un google (stockage et indexation) pour être pérenne en étant gratuit (enfin, comme on peut le voir maintenant, même avec google, pour le côté pérenne on peut se brosser).


Le 05/11/2012 à 17h 03

Pour Looper, je trouve plus pertinente la critique de Mr Odieux [http://odieuxconnard.wordpress.com/2012/11/04/loupeurs/ ]…

Les goûts et les couleurs, tout ça…