votre avatar

flagos_

est avec nous depuis le 8 août 2011 ❤️

1014 commentaires

Le 19/01/2015 à 13h 41







Jed08 a écrit :



J’ai du mal à voir le rapport là. Si une vulnérabilité touche l’OS je vois pas en quoi le fait que apache soit installé dessus change quelque chose.



Après, la grande force du libre sur le proprio, c’est le nombre de collaborateurs présent pour créer un patch. Ca augmente l’efficacité, il faut pas le nier.





Les failles peuvent intervenir sur des softs comme apache ou openssh. Les distrib maintiennent également ces logiciels, là où MS en maintient moins. 


Le 19/01/2015 à 13h 40







DDReaper a écrit :



J’espère que tu mettrais autant de vigueur à défendre Microsoft si il annonçait que pour obtenir des patch de sécurité il faudrait dorénavant demander à HP, Lenovo, Asus…





Facile celle la. Android est open-source. L’Android que tu as dans ton smartphone est celui de HTC, sony, samsung etc… Google n’intervient pas (sauf pour les play services), il ne fait qu’entretenir des repo git.


Le 19/01/2015 à 13h 37







misterB a écrit :



L’age de Win 7 c’est quoi ? 





C’est la version N-1.


Le 19/01/2015 à 13h 37







trash54 a écrit :



Ah oui comment ? (ne pas répondre cyano machin truc rom bidule chose)





Les contructeurs sont responsables de la non mise a jour. L’utilisateur est coincé, clairement.


Le 19/01/2015 à 13h 36







AeRoX a écrit :



Chez Google on dirait qu’ils ne savent pas comment marche la gestion de projet informatique…

3 mois pour corriger une faille de ce type sur un OS, ça me parait limite impossible sans risquer de foutre en l’air des tonnes de trucs à côté.



Après MS n’est pas forcément clean non plus, mais la moindre des choses serait de se mettre d’accord sur une date de correction, puis si la date est dépassée balancer le truc publiquement. Car la solution arbitraire me semble un peu radicale.





Cette politique est la même pour tout le monde. elle ne pose de problème a personne. Que ce soit Apple, les mecs de chez Linux, Chrome OS, Android, Blackberry… tout le monde s’accomode de cette manière de fonctionner.



Sauf MS, qui comme d’habitude, passe son temps a chouiner contre Google dans les médias. Pathétique.


Le 19/01/2015 à 13h 33







FRANCKYIV a écrit :



Je voulais plus dire : “quel est l’intérêt de noter les failles publiquement sur Internet ?”



Edit :

D’ailleurs, c’est bien légal de faire ça ?





Ce qui est illégal, c’est de l’exploiter sur des machines qui ne t’appartiennent pas. Rien n’interdit de les chercher, de les tester chez toi et de les publier.


Le 19/01/2015 à 13h 31







shadowfox a écrit :



Quand je pense qu’on a entendu les gens gueuler suite à l’arrêt des corrections des failles sur XP qui a plus de 10 ans,&nbsp;alors que l’autre géant laisse tomber ses versions 2 ans après… <img data-src=" />





Des smartphones mecs. Et puis rien n’empeche de les mettre a jour ces smartphones.


Le 19/01/2015 à 13h 30







Jed08 a écrit :



Euuu… corriger une vulnérabilité sur Windows c’est pas aussi simple et rapide que faire disparaître un bug sur un site web.





Pourtant, les failles sont rapidement comblées sur les distrib style debian, alors que le système est certainement plus complexe (car couvrant l’OS+ pas mal de software comme apache).


Le 19/01/2015 à 13h 27







fr1g0 a écrit :



guéguerre stupide gogol vs grosoft





Guerre intelligente. On sait très bien que si la faille n’est pas publiée à un moment donné, les éditeurs ne s’emmerderaient pas à patcher la faille.



Un moment donné, il faut une deadline: 3 mois c’est pas aberrant. Sur linux, en général, c’set quelques jours pour patcher une faille.


Le 19/01/2015 à 13h 24







Ksass`Peuk a écrit :



http://www.zone-numerique.com/android-4-3-une-faille-qui-ne-sera-pas-corrigee-par-google.html



Et la méthode de Google pour se laver les mains c’est “ben c’est pas de notre faute, c’est les constructeurs qui mettent pas à jour vers 4.4”. (j’ai pas poussé plus loin mais ça doit pas être la seule).





Ouai support de 2 ans sur les anciennes versions d’android. Les constructeurs avaient tout le temps de passer kitkat.


Le 19/01/2015 à 13h 21







FRANCKYIV a écrit :



Franchement … quel est l’intérêt de Google de faire ça ?





De faire en sorte ques les failles soient corrigées car si Google l’a trouvé, d’autres la trouveront. Plus de 3 mois pour corriger une faille, c’est n’importe quoi.


Le 19/01/2015 à 13h 18

T’as des exemples ?

Le 18/01/2015 à 09h 10

Ouf, j’ai eu peur. Au boulot, on vient juste de me migrer sur 7…

Le 02/01/2015 à 09h 55

Cela dit, il serait interesant de savoir quels sont ces fameux contenus djihadistes, et s’ils n’ont pas été effacés, ce serait bien que github et dailymotion s’expliquent.



Autant c’est toujours facile de critiquer la censure, mais je vois pas bien pourquoi ces sites laisseraient trainer des contenus djihadistes sur leurs serveurs. Et c’est triste a dire, mais oui si ces accusations sont fondés, le filtrage est mérité :-/

Le 25/12/2014 à 18h 45







methos1435 a écrit :



Le seul gros défaut de Windows Phone ne vient même pas de Microsoft: c’est le refus de beaucoup d’éditeurs de développer pour cet OS…



Microsoft fait ce qu’il faut pour attirer les éditeurs. On ne peut pas dire qu’ils ne font rien.&nbsp;





Non, ce n’est pas le plus gros défaut de cet OS.



Son plus gros défaut, c’est cette interface horrible. Désolé les gars, vous l’aimez certainement beaucoup cet interface, mais les pages toutes noires avec des titres en gros et des sous titres écrits en plus petits, ben non, c’est pas design. Pareil, les tuiles qui virevoltent, ca me rappelle les effets de flamme sur ubuntu quand on fermait une fenetre. Désolé mais non, c’est vraiment pas beau.



Sincèrement, au debut de WP, ca avait le mérite d’être original quitte a pas être pas etre parfait, mais aujourd’hui, &nbsp;non ca fait pas bander.



Franchement, allez faire un tour du cote d’iOS ou de lollipop, vous verrez qu’on peut faire des interfaces un peu jolies et bien finies…. et accessoirement vous comprendrez pourquoi les PDM de windows sont en chute libre continue depuis que l’iphone est sorti et que WP et ses tuiles n’ont pas arrete la chute cet OS !


Le 12/12/2014 à 09h 55







unCaillou a écrit :



T’es sûr que c’est tout ou rien ?

Le propriétaire de la chromecast choisi quels appareils dans la pièce il autorise à inviter, non ?





Non, c’est l’intérêt de ce mode. Tu autorises toute personne dans la piece a diffuser sur ton chromecast. Après si ca t’interesse pas, ben tu actives pas.


Le 08/12/2014 à 09h 15

L’ARCEP est pas coherente. Si le rapport est publié, bouygues a bien le droit de l’utiliser, c’est normal. Si l’ARCEP n’est pas sur de sa méthodologie, elle aurait du simplement ne pas publier les résultats et seulement la méthodo et attendre les retours.



Mais critiquer Bouygues parce qu’ils communiquent sur le résultat d’un rapport, franchement non je vois pas.

Le 05/12/2014 à 04h 18

Autant le mec qui montre ses fesses c’est un peu drôle mais le doigt franchement je comprend qu’il ait été supprimé. Il est même pas drôle, en mode pro ou quoi c’est juste un truc a s’attirer des emmerdes.

Le 03/12/2014 à 16h 49







seboss666 a écrit :



Je fais surtout référence aux endroits où SFR a déployé de la VRAIE fibre (celle permettant du 1Gbps/200Mbps) ET du mic-mac fibré/câblé Numéricable (qui donc va faire du 800Mbps/40Mbps), c’est nécessairement le moins bon qui est vendu. Et si tu fais pas gaffe et réclame la VRAIE fibre, ils te pigeonneront.



Si on veut garder un internet qui fonctionne, c’est pas du réseau minitel qu’il faut (qui ne marche que dans un seul sens). 40Mbps pour du THD c’est UNE MAUVAISE BLAGUE.





C’est un cas interessant:




  • Si SFR passe par la fibre, ils devront payer une redevance à Orange, ce qui sacrifie les marges

  • Si SFr passe par le cable, ils gardent leurs marges pour eux et ameliorer leur réseau cable, technologie qui, crois moi, n’a pas pas montré toutes ses possibilités.&nbsp;



    Le PDG de SFR a clairement la stratégie vision a long terme: on investit a fond dans le réseau, on charge le réseau cable avec les clients afin de l’améliorer et le mettre au top. C’est peut etre surprenant pour vous qui pensez que le cable est une techno completement moisie, mais sincèrement, c’est un très bon choix.


Le 03/12/2014 à 16h 44

Déployer du THD en dépensant des milliards dans le FTTH, je veux bien mais je vois pas en quoi c’est le faire bien. D’autant plus que sur les débits annoncés par Numericable, dans 3-4 ans, on pourra encore faire x10 (en gros 10Gbits en down, 1Gbps en up), et franchement, ce sont des debits très corrects.



Je vois pas en quoi aller faire des trous dans tous les immeubles et appartements pour y mettre de la fibre et de faire un déploiement a 50 milliards permet de “faire mieux”, sachant qu’on ne sait pas ce dont le cable sera capable dans 10-15 ans.

Le 27/11/2014 à 08h 37







dodo021 a écrit :



Ta femme parle donc toute seule ? <img data-src=" />







Effectivement, il ferait bien de s’inquiéter ;-)


Le 25/11/2014 à 08h 03

Après si c’est pour remplacer les bouquins, il faut quand même voir. Vous parlez de gouffre financer mais les bouquins d’école, ça douille.



Si en plus derrière il y’a moyen de proposer des contenus adaptés qui aident les élèves avec des applications qui les aident a mieux cerner leurs difficultés qu’une bête liste d’exercices au fin fond d’un bouquin de math, ben ce serait bien.



Tout dépend quel est l’objectif pédagogique derrière, si c’est pour jouer a clash of clan, ca sert a rien mais autant il est possible d’améliorer significativement la pédagogie des supports.

Le 19/11/2014 à 15h 58

Pareil, j’adore cette appli. Elle est jolie, intuitive, la synchro marche du tonnerre et elle fonctionne sur PC. Elle a aussi un rappel basé sur le temps (classique) mais aussi par lieu. Très pratique pour se rappeler de prendre quelque chose la prochaine fois qu’on va aux courses ou au travail.



Elle se fait bashé depuis le début par PCi, j’ai jamais trop bien compris pourquoi. Son seul vrai défaut regrettable était de ne pas pouvoir partager les notes, c’est désormais fixé et tant mieux !

Le 19/11/2014 à 10h 31

doublon

Le 19/11/2014 à 10h 31







Brozowski a écrit :



+1



Par contre je cite la news&nbsp; : “On regrettera par contre que l’upload ne bouge pas d’un iota en restant&nbsp;toujours limité à […] 10 Mb/s sur

la zone 100”



Perso, chez moi et au boulot, en zone 100 c’est 5 Mb/s et non 10 … Erreur de la news ou il faut que réclame ?

&nbsp;





C’est une option a activer si tu as la box numericable. En gros, ca marche pas sur l’istart, uniquement sur les autres offres.


Le 19/11/2014 à 07h 54







HPact a écrit :



Tu prends ton cas personnel, et seul a priori.



Maintenant, prend un jeune couple actuel, qui formera une famille de 4, 5 personnes dans 15 ans. Toute la famille sera “connectée”, avec des usages différents, les uns regardant la TV 8k 3D (minimum puisque le successeur de la 4k peut déjà se trouver), d’autres faisant du jeu réseau hébergé sur des plateformes de cloud gaming, un autre de la visio conf avec sa copine… Le pauvre 1Gb/s de DL de maintenant sera explosé.



Et encore, je me limite à ce qui semble le plus logique en terme de techno, et je n’envisage pas de rupture/révolution technologique comme de la diffusion holographique, ou que sais-je encore des usages futurs qui émergerons avec l’augmentation du débit.



Les infrastructures doivent prendre en considération le futur à plus ou moins long terme. En 15 ans, on est passé du 512Kb/s&nbsp; à du 28Mb/s (x 60 à peu près!) et on est en cours de démocratisation des débits &gt;100Mb/s et le besoin en débit accélère depuis 5 ans. Donc tabler sur des technos qui peuvent facilement monter en débit avec un faible taux d’usure sans devoir refaire tout les travaux de gros œuvre, c’est très loin d’être idiot.







&nbsp;Alors reprenons le sujet, avec le cable:




  • flux tv 8K 3D: compris de base dans le cable, ca ne tape dans le débit internet. Supposons que ce soit du streaming ou quoi, et que tu veuilles quand même faire passer ca dans le debit internet: un flux HD h264= 15Mb =&gt; flux 8Kh264 = 120Mb/s =&gt; flux 8K HEVC = 60 Mb =&gt; flux 8k 3D HEVC &nbsp;=~ 80Mb

    Supposons avoir 5 personnes qui regardent = 5x80Mb = 400Mb/s

  • cloud gaming = 1 flux video. Considérons que c’est du 80Mb/s

  • visio conf egalement



    En gros, tes usages même en imaginant le worstcase &nbsp;(7 flux videos streaming full resolution, personne ne regarde la TV) tiennent sur 560Mb/s… Tu n’es toujours pas au Gbit/s !



    Et oui, tu es du coup obligé d’invoquer des usages capilotractés et imaginaires (holographie ou quoi) pour justifier la fibre. Chez moi, ca veut dire que le déploiement du FTTH n’est pas justifié. Et a un moment où les caisses de l’Etat sont vides, il serait bien gentil d’arreter de dépenser l’argent qu’on a pas dans des plans fumeux:

  • déploiement FTTLA/GFast = 5 milliards

  • déploiement FTTH = 50 milliards



    Autre argument: on peut commencer sur le premier plan et capitaliser sur celui la pour faire un plan FTTH ensuite, si les besoins existent vraiment.



    &nbsp;

    &nbsp;


Le 18/11/2014 à 16h 49







brazomyna a écrit :



A nouveau, on ne déploie pas une boucle locale pour les besoins du présent, mais pour les besoins des 30 ans à venir.



La question, c’est “est-ce qu’on aura vraiment besoin d’aller au delà du Gb/s dans les 30 prochaines années. Et la réponse est évidemment “oui” (tout comme 64kbits/s paraissait un débit délirant et inutilement surdimensionné du temps du minitel (c’était la vitesse d’un lien numéris), et paraît maintenant ridicule quelques décenies plus tard).

&nbsp;





Dans les 30 prochaines années, faut voir. J’ai acheté un laptop ya 10 ans, son disque dur était de 160 Go. J’en ai acheté un cette année, son disque dur est de 500Go. Il y avait des disques plus gros, je n’en ai juste pas vu l’interet. En 10 ans, les besoins en terme de stockage n’ont pas augmenté de manière faramineuse. Même pas un rapport 5, c’est assez stable.



Un autre exemple: je bosse dans l’electronique. Il y a 5 ans, on nous a demandés de dimensionner nos puces de manière a supporter des images de 30Mpixels. En gros, t’as des gars qu’on dit: on avait des capteurs 3Mpixels, des 6 Mpxels, on commence a voir des 12. Si on veut tranquilles, on dimensionne pour du 30Mpixels. Avec le recul, c’était débile. Ca fait chier d’avoir des images super lourdes, ca sert a rien. &nbsp;tout ce roman pour dire que les besoins ne sont pas toujours en croissance infinies. C’est trop facile comme raisonnement.

&nbsp;

Comme l’espace de stockage et la bande passante sont liés (quel est l’intérêt de remplir son disque en moins de 5 secondes, ca n’a pas de sens …), on peut se dire que dans 10 ans, on sera bien loin de saturer les 1Gb/s que l’on aura bientot, car les besoins ne sont juste pas infinis.



Apres de la, a conjecturer sur 30 ans, j’en sais rien et toi non plus :-). Autant dans 10 ans, on sera a la 6G, et plus personne n’aura envie de payer pour un abonnement fixe.


Le 18/11/2014 à 15h 52







brazomyna a écrit :



Pour le reste, évidemment que la fibre est à des années lumières du coax. Pas pour le Gb/s d’aujourd’hui, mais pour sa capacité à evoluer sur les 30 prochaines années vers du Pb/s sans changer la partie terminale, celle qui.cpûte justement des dizaines de milliards à déployer.





Je suis d’acc avec toi sur les considérations physiques des différents cables. Par contre, effectivement, la question de la fibre, c’est vraiment “est-ce qu’on a vraiment besoin d’aller au dela du Gb/s ?”.



&nbsp;Ca fait des années qu’on se traine en adsl, c’est pas terrible mais bon, c’est pas si pire. Si deja on arrive a fournir du Gbit/s dans les 2-3 prochaines années (c’est la promesse du docsis 3.1 !), franchement est ce que ca vaut le coup d’aller au dela ? Surtout que d’ici la, on aura un docsis 4.0 ou dans le genre, qui montera encore en debit… Au final, les milliards du plan fibre, l’Etat ferait peut etre mieux de les garder.


Le 18/11/2014 à 15h 24

Je te rappelle que le caox, ce n’est pas une paire torsadée. La gaine est la pour protéger du bruit electro magnétique et transmettre le neutre. L’info est transmise sur un fil de cuivre plein et non torsadée qui s’appelle le coeur.



Je te laisse consulter la page wikipedia si ca t’interesse, je crois que tu as quelques méconnaissances sur le coax:

&nbsp;

fr.wikipedia.org Wikipedia&nbsp;

Après oui on peut aussi procéder par mesure différentielle comme tu le dis. C’est le cas de l’éthernet. Ca a plusieurs avantages:

-&nbsp;ca permet de faire des cables plus souples qu’avec une gaine




  • ca coute moins cher, la gaine etant assez couteuse



    &nbsp;Par contre,&nbsp;c’est vraiment beaucoup moins bon en terme de signal et de debits associés. L’éthernet 5e par exemple est limité a 1Gb sur 100m, c’est assez “pourri” finalement.



    De toutes manières, ce n’est meme pas le cas du cable telephonique, qui est vraiment juste un fil de cuivre. En bref, en terme de signal, ca donne un truc dans le genre:

    cable France Telecom &lt; ethernet &lt; cable coax



    Le seul avantage du fil de cuivre FT, c’est qu’il est en P2P, donc le debit n’est pas partagé. C’est un avantage en terme de service pour le client, mais en terme de gestion de réseau, ca a un cout assez monstrueux, ce qui fait que le réseau a du mal a evoluer.



    &nbsp;


    kypd a écrit :

    Donc oui branché au cul d’un oscillo (même si ça a pas de sens…) ça pourrait être moche pour reproduire “UN” signal, mais dès qu’on utilise du multiplexage (oh une technique très importante pour le réseau !) là ça te renvoie le coaxial au cul de la TV juste bon a relier quelques mètres jusqu’à une antenne !




    Pour multiplexer, tu ajoutes des canaux de frequences. Comme sur la fibre. Comme sur FT. &nbsp;Et si, au passage, je te rassure ca a du sens de mettre du coax sur un oscillo: les electroniciens/physiciens (dont je fais parti) ne sont pas tous des abrutis qui mettent un cable 20 boules la où a t’entendre un bete cable a 1€ les 100mètres suffirait ;-)&nbsp;

Le 18/11/2014 à 14h 27







kypd a écrit :



Le coaxiale, c’est facilement perturbable, théoriquement très difficile à faire évoluer (même si techniquement ça concurrence la fibre actuellement en débit descendant), ça consomme de l’énergie et des matériaux onéreux (cuivre), sa qualité est dépendante de la distance, de l’environnement électromagnétique (Numéricable + Pluie = pas de service) et du taux de mutualisation avec les voisins…



Franchement même la “Paire de cuivre” me semble plus prometteuse que cette horreur, juste que sur la paire de cuivre personne ne tente de techno expérimentales ou d’interventions lourdes de part la nécessité de continuité du service universelle…







&nbsp; Le coax est quand même bien protégé contre les pertubations. Il y a une sacrée gaine et le signal recu est super propre. Moi j’ai jamais de pertubations sur ma tv avec numericable.&nbsp;



La paire de cuivre a coté, c’est tout moche. Ya aucune gaine autour du signal, le spectre passé est carrément pourri. &nbsp;Non sincèrement, si en electronique on fait des mesures avec des coax (oui sur l’oscillo, c’est un coax), ben c’est pas pour rien, c’est un cable d’une très bonne qualité, très peu pertubé. Un bon compromis par rapport au tout fibre justement ;-)


Le 18/11/2014 à 14h 24







Jeanprofite a écrit :



Le problème c’est que le câble est une technologie du passé, que la limite en «upload» est trop pénalisante à l’heure du «cloud».

Honnêtement, seul le câble peut-être qualifié de très haut débit.





Même réponse: 100Mb en up pour le docsis 3.1, non franchement c’est pas degeu.


Le 18/11/2014 à 14h 23







EMegamanu a écrit :



Et les débits montants en 3.1 ? J’imagine qu’il est toujours aussi bas…





Ca fera du 100Mb &nbsp;en up pour 1Gb en up. Franchement, je trouve pas ca ridicule.


Le 18/11/2014 à 13h 59







jb18v a écrit :



oui DOCSIS c’est tout pourri.. c’est prévu pour diffuser de la télé à plein de monde mais pas trop pour internet..

enfin je trouve ça nettement plus compliqué pour pas vraiment d’avantage derrière (sauf la qualité du flux tv, évidemment).





Tout pourri, non sérieux faut quand même arreter. Le 3.0 permet de monter a 200mb pour internet et le 3.1 permettra aux opérateurs de faires des offres a 1Gb, normalement dans un an si tout vas bien.



Je comprend pas bien le caca nerveux autour du cable, c’est une techno qui marche assez bien a partir du 3.0. Les débits sont vraiment appréciables. Mais bon je pense que les critiques s’estomperont lorsque Free aura accès au réseau Numericable :-)


Le 18/11/2014 à 10h 50







kypd a écrit :



Le problème c’est que :&nbsp;



“C’est au juge de décidé”, c’est de l’arbitraire, et c’est inconstitutionnel !&nbsp;

Pourquoi admet on que tout le monde DOIT connaitre les medias mainstream, c’est hyper malsain, il n’y a toujours aucune base de données publique qui identifie clairement les œuvres protégées ou non, ça permettrait comme le “compteur de vitesse” d’avoir une réponse claire et d’avoir la connaissance de se trouver ou non dans l’illégalité.



Le 18/11/2014 à 10h 26







MoonRa a écrit :



Je disais que c’est hypocrite de la part des pirates de dire que le mec ne devrait pas s’enrichir. Sachant que ne pas payer une chose c’est de l’enrichissement aussi.



Personne ne se lance dans une entreprise illégale &nbsp;si il n’y a pas de bénéfice à la clé. Les mecs risquent gros, qu’ils génèrent un bénéfice ne me gène pas tant que le système fonctionne. Nous ont est bien content cacher derrière nos VPN et autres…

&nbsp;





Tout a fait d’accord avec toi. C’est un système dans son ensemble qui doit tomber pour que les biens culturels soient plus souvent sous licence libre.



Il est donc important que ces gens qui “blanchissent” des contenus propriétaires en pseudo contenu libre tombent car il permet a cet ancien modèle de survivre. Une fois que le monde artistique aura perdu son audience, il remettra son modèle en cause, et le monde n’en sera que meilleur.


Le 18/11/2014 à 10h 10







kypd a écrit :



&nbsp;&nbsp;

Alors déjà imposer la “connaissance” de la loi c’est une bel connerie, mais maintenant on doit connaitre le box-office par coeur aussi car on est sensé être tous capable d’identifier une contrefaçon !





Oui enfin après ca reste soumis a l’appréciation du juge. C’est sur que si tu entretiens un site de torrent légaux de distribs linux, et qu’une seule fois il est arrivé d’avoir un film non libre et que tu as pris toutes les dispositions nécessaires pour nettoyer une fois que tu en as eu connaissance, franchement tu risques rien, le juge sera clément.



La, on parle d’un mec qui pendant 7 ans a eu TOUT le box office sur son tracker, alors 2 hypothèses:




  • soit il ne connaissait aucun des milliers (millions ?) de films qui étaient sur son tracker

  • soit c’était un truand qui se faisait de la thune sur le dos des autres



    Ce sera au juge d’en &nbsp;décider, mais a mon sens, il y a tout de même une piste qui est plus réaliste que l’autre&nbsp;<img data-src=" />


Le 18/11/2014 à 07h 35







bombo a écrit :



J’ai oublié, mais c’est quelle loi qui interdit la diffusion de fichiers torrents déjà ? Parce que ces fichiers ne sont rien en soit, ils n’ont aucun contenu.







Dans la loi, il y a la notion de manifestement illégal. Un torrent avec le dernier Marvell, il est manifestement illégal.


Le 18/11/2014 à 07h 33

Et ben voilà. Le gonze se tape 100 000 boules sur le travail des autres, il se retrouve en taule. C’est pas plus mal, soyons honnêtes.



Il faudrait également poursuivre les régies publicitaires qui acceptent de financer ce genre d’activités.

Le 13/11/2014 à 11h 12







Xarkam a écrit :



C’est franchement utopique d’aller imaginer que par ce que les sources sont dispo qu’une masse de personnes qualifiées vont prendre sur leur temps libre pour analyser du code.

Déjà moi qui passe mon temps à coder la journée, le soir j’ai franchement pas envie de me remettre la tête dans le code.

&nbsp;…



Mais, si on regarde avec du recul, tout les gros logiciels libres qui fonctionnent pas mal sont tous supportés par des entreprises et pas juste par du bénévolat de codeurs.





C’est génial, il suffit de rapprocher les paragraphes pour voir apparaitre les incohérences dans ton discours. Effectivement, sur le kernel Linux, 90% des dev sont payés pour le faire.



Et oui, un code ouvert permet une meilleure relecture qu’un code fermé en assembleur.

Et oui, certaines entreprises n’ayant pas envie de se faire espionner sont prets a payer des dev pour faire du code review.


Le 10/11/2014 à 09h 24

Franchement, c’est tellement agréable d’avoir un truc un peu fin. Quand tu reviens sur un téléphone plus gros, t’as l’impression d’avoir une pelle a tarte, c’est horrible.

Le 09/11/2014 à 12h 31

NetmarketShare, personne ne comprend leurs chiffres, ils sont abherrants. Dans la réalité, IE toutes versions confondues est plus autour de 15%. D’ailleurs, ca correspond a ce que j’ai sur mes sites.



Tu as une vue un peu plus globale sur wikipedia, on voit bien l’ “anomalie netmaketshare”

fr.wikipedia.org Wikipedia

Le 09/11/2014 à 10h 42

Ben j’essaie, mais devoir installer des VM pour tester a cause du mode de distribution d’IE qui n’est jamais mis a jour, ben ca soule rapidement. Il faut vraiment que MS fasse l’effort de mettre a jour ses IE s’il veut qu’on y accorde un mimum d’interet.



Donc je regarde rapidement que ca marche dans les grandes lignes, et ca ira bien. &nbsp;De toutes facons, il y a de moins en moins de gens aujourd’hui sur IE, et moins de soucis aussi sur les nouvelles versions. Aujourd’hui, quand on fait un site, il vaut mieux penser a l’usage sur mobile.



&nbsp;





sepas a écrit :



Il a&nbsp;le comportement d’un geek qui fait un site pour les geeks, donc je suppose qu’il s’en fout.

Pour les pros, évidemment qu’ils testent l’ensemble des navigateurs, IE reste majoritaire en terme de PDM, personne ne peut passer&nbsp;à côté





Non, je m’en fous pas et je fais pas que des sites pour geeks. J’ai également fait le site de e-commerce de ma femme. Mais aujoud’hui la part d’IE n’est carrement plus majoritaire, donc on gère plus le “problème IE” de la même manière. Sincèrement, je conseille a tous ceux qui doivent se lancer dans un projet web:




  1. developper avec chrome/firefox en test quotidien. Ils ont tous els outils pour bien comprendre ce que vous codez

  2. prenez régulièrement 2 tablettes (1 android, 1 ipad) pour vérifier que le design est bien accessible aux tablettes

  3. quand vous avez fini, prenez du IE (a partir de la version 7 si vous etes motivés), et patcher avec IE pie les bug les plus gros. Avec cette lib js, en général, on s’en sort facilement. Ca ralentit un peu le chargement, mais bon les anciennes versions de IE sont de telles brouettes que ca ne changera pas grand chose.



    Avec cette méthode, vous pouvez produire un site conforme aux standards, qui a priori marchera correctement dans le futur, en vous prenant pas trop la tete sur des bugs navigateurs. Avec IE pie, j’ai du passer 1 journée a faire les patchs qu’il fallait pour IE7 et 8. Pour IE9/10, il manquait des features (non implémentés dans le navigateur) mais ca passait. IE11 existait pas encore, donc pas testé.



    Si aujourd’hui je devais le refaire, j’enleverais le support d’IE7 (&lt;2%), il est en voie d’extinction :-)


Le 08/11/2014 à 16h 16

Sérieux, t’as deja essayé de faire passer un site sur IE7/IE8 ? Je suis désolé mais non, ces horreurs (produits toujours supportés par MS, donc non obsolètes) ne sont pas absolument pas conformes !

Le 08/11/2014 à 16h 15

Les préfixes, c’est la recommandation du W3C. Effectivement, c’est pas génial, mais oui, c’est le processus normal. D’ailleurs, il me semble qu’ils ont arrete de faire comme ca.

Le 08/11/2014 à 06h 45







arno53 a écrit :



Eh ?!? les VM sont gratuites…

Pour paraphraser un tweet que j’ai lu : c’est justement car on a pas eu la mentalité du “ça marche pour 80% des gens, c’est suffisant” qu’on a un Web accessible aux personnes déficient visuellement etc…



Ne tester son site mobile que pour Webkit/blink ou son site pc que pour blink/gecko ou blink/ie est très mauvais pour le Web en général et les standards justement…







Moué enfin c’est pas en testant avec IE que tu rentres ton site dans une phase de respect des standards. Tu es plus dans une phase d’adaptation de ton site a libre interprétation de MS des standards…



Moi ce que je fais, je teste avec firefox et chrome, je checke de temps en temps sur safari (j’ai pas de mac, je demande a mon entourage). Et uniquement a la fin, je fais du IE pie pour faire en sorte que ce soit pas trop vilain quitte a ce que ça rame un peu a cause du JS.


Le 31/10/2014 à 10h 41

@carbier



T’as raison, revenons au bon vieux temps des annuaires de sites. Ca c’était de l’opt-in !

Le 29/10/2014 à 05h 48







Mimoza a écrit :



Toujours de système de “opt-out” de la part de Google <img data-src=" /> “don’t be evil” qu’ils disaient. On en est loin là







En même temps, il faut être juste un peu con pour refuser que l’utilisateur fasse une requête uniquement sur ton site.


Le 28/10/2014 à 07h 41







psn00ps a écrit :



<img data-src=" />



Le câble, ce n’est pas l’avenir, ou il est en retard.

Vous êtes éligible aux offres Numericable ADSL jusqu’à 15 Mb/s.

J”ai de l’IPADSL Free à 2Mb/s pour l’instant, heureusement qu’il y a mon pont wifi 5ghz&nbsp;<img data-src=" />







T’as différentes de déploiement. En zone 30Mbit, c’est clair c’est pas fou. Par contre, des que tu passes en zone 100 et plus, ben oui ça envoie. Chez moi typiquement, c’est le wifi qui sature, faut passer par l’Ethernet si je veux pouvoir tenir les debits.



Et quand docsis3.1 sera sorti, on aura du 1Gbit, et la franchement, ça ne peut que mettre un coup d’arrêt méchant a la fibre.


Le 27/10/2014 à 17h 53

Je suis assez surpris des commentaires ultra négatifs sur le câble. Je l’ai depuis 2 mois et franchement ca marche bien. J’ai du 90mbits en down (5 en up par contre), un bon ping et une connections bien stable.



Bon je pense que les gens râlent après le câble sont plutôt en zone 30mbits. Mais en 100mbits ou plus, n’hésitez pas, le câble ca envoie.

Le 22/10/2014 à 12h 06

Le ping sur VDSL2 est de l’ordre de 15ms conter 10ms pour la fibre. C’est carrement pas déconnant en fait.



&nbsp;Ces technos (vdsl2/GFast sur cuivre telephonique, Docsis3.0/3.1 sur cable) vont definitivement enterrer l’arlésienne de la fibre qui coute des milliards a déployer et dont le déploiement n’avance pas.



Il est temps qu’on arrete le plan fibre et qu’on passe enfin sur une solution réaliste qui nous permette d’avoir du THD avant 2040 !