votre avatar

Konrad

est avec nous depuis le 3 août 2010 ❤️

4337 commentaires

Le 28/05/2014 à 14h 39







misterB a écrit :



J’ai eut un vieux doute a un moment





Apparemment tu doutes souvent <img data-src=" />


Le 28/05/2014 à 14h 10







misterB a écrit :



Fallait vous laissez chercher





Ouch <img data-src=" />


Le 28/05/2014 à 09h 18







Anne Onyme a écrit :



Étant interprète, j’ai de forts doutes concernant la qualité de la traduction donnée et soit-disant simultanée. Peut-etre que pour des phrases banales comme “bonjour comment allez-vous ?” c’est acceptable, mais pour le reste, je reste sceptique.





Ce genre de technologie est difficile car elle passe par trois étapes, chacune ayant ses difficultés :





  • reconnaissance vocale : il faut que l’ordinateur arrive à transcrire le son qu’il reçoit en mots. Selon les langues, les accents, le niveau de langage… ça peut être très compliqué.



  • traduction des phrases : c’est peut-être l’étape la mieux maîtrisée, les services de traduction en ligne sont pléthore et assez rapides.



  • synthèse vocale : une fois les phrases traduites, l’ordinateur doit les prononcer avec un ton naturel, et ça c’est aussi assez compliqué à faire.



    Ces travaux de Microsoft sont indéniablement un pas en avant. J’imagine qu’il reste énormément de boulot pour implémenter les différentes langues de manière correcte.


Le 28/05/2014 à 09h 10

Impressionnant, GG à Microsoft et vivement le produit fini.

Dans le même temps j’espère aussi que les concurrents (Apple, Google…) sortiront aussi leurs solutions, pour qu’il y ait une émulation dans le secteur et que l’utilisateur final ait le choix.









mopi56 a écrit :



Auten je gueule sur µSoft auten la je dit respect les gars





Un traducteur aura par contre du mal à traduire ce genre de phrase… Google Traduction :



I Auten mouth on µSoft Auten said I respect the guys



On va dire que l’avantage à l’oral c’est qu’il n’y a pas de faute d’orthographe…


Le 27/05/2014 à 15h 12







Qui_Gon_Jin a écrit :



À la rédac : vous pourriez arrêter de parler en pouces ?

On est en France, on n’a pas inventé le système métrique pour rien<img data-src=" />, par pitié faites un effort !





C’est vrai, une once de jugeote svp ! <img data-src=" />


Le 27/05/2014 à 15h 10







atomusk a écrit :



il y a le play store ? <img data-src=" />





Pour jouer à Angry Birds en 4K ? <img data-src=" />


Le 27/05/2014 à 13h 19







RaoulC a écrit :



Mais tu admettra que c’est une limitation artificielle , commerciale. Dans la pratique, MS sait faire, il bride juste la fonction pour les éditions Home.

Après, on est d’accord ou pas avec cette pratique.



Tu employait cet argument pour parler de “Windows pas vraiment multiutilisateur”.

Cet argument est donc un peu biaisé, quand même <img data-src=" />



Sur le reste de ton argumentation, au final, je suis assez d’accord





Maintenant je peux l’avouer : je trollais un peu. En même temps je répondais à quelqu’un qui disait que Linux ne faisait rien de nouveau, donc qui trollait aussi…


Le 26/05/2014 à 21h 06







Patch a écrit :



c’est bizarre, j’ai encore ouvert plusieurs sessions sur le même PC au taf (Win7). et quand j’étais encore avec XP chez moi ca m’arrivait aussi de le faire (mais chose bizarre avec XP, il accepte le multisessions sans pb, sauf s’il est dans un domaine : là c’est impossible…).

j’ai dû rêver…





Oui sur Windows 7 Ultimate ou Enterprise.

Mais pas Windows 7 Home par ex.


Le 26/05/2014 à 11h 50







Edtech a écrit :



Euh, si ça marche aussi <img data-src=" />



Quand tu te connectes via TSE, ça ne ferme pas les autres sessions !





Je sais, dans mon boulot précédent il y avait un Windows Server (2008 je crois) auquel plusieurs utilisateurs pouvaient se connecter simultanément.



Je dis simplement que cela n’est pas possible sur un Windows Vista, 7 ou 8 de base (en édition familiale par ex.). Ces éditions ne supportent pas plusieurs connexions simultanées.


Le 26/05/2014 à 09h 34







Edtech a écrit :



Faux, ça fonctionne très bien depuis Vista. Sauf si tu utilises des softs codés avec les pieds évidemment !



D’ailleurs, c’est très drôle de laisser de la musique sur une session et de bosser dans une autre. Le gars ne peut pas couper ta musique pour mettre la sienne





Plusieurs sessions locales, oui. Une session locale et une session distante, non.


Le 26/05/2014 à 09h 18







Edtech a écrit :



Merci de donner des exemples concrets à mes dires





Sous-entendu, j’affirme des choses fausses sur Windows parce que je ne le connais pas ?



Sur un véritable système multi-utilisateurs, plusieurs utilisateurs (ou un même utilisateur) peuvent ouvrir plusieurs sessions simultanément et indépendamment. Cela inclut la possibilité de laisser une session ouverte en arrière-plan (avec tous ses programmes qui tournent) et d’en ouvrir une ou plusieurs autres, ainsi que de pouvoir ouvrir plusieurs sessions à distance.



Les versions serveur de Windows le permettent, mais sous Windows 7 ou 8 il n’est pas possible à plusieurs utilisateurs d’ouvrir des sessions sur la même machine (à moins de remplacer des DLL du système, ce qui n’est pas très rassurant). Les versions «client» de Windows ne sont pas multi-utilisateurs, c’est une limitation imposée par Microsoft. Tous les autres OS le sont dans leur version de base (GNU/Linux, Mac OS X, les différents UNIX etc.).


Le 26/05/2014 à 07h 57







Edtech a écrit :



Vous me faites rire avec vos commentaires ! Je vois que certains parlent en ayant une vision obsolète ou incomplète de l’OS qu’ils n’utilisent pas.



J’ai ce problème avec un ami qui était extrémiste Linux. A force de lui montrer que les arguments qu’ils me sortaient étaient valables il y a 10 ans mais plus maintenant, il est en train d’admettre que Linux et Windows se valent, avec un avantage qui va de plus en plus vers Windows.



D’ailleurs j’attends que la communauté libre prenne le taureau par les cornes et remette en cause certaines bases de Linux comme son noyau qui est basé sur une architecture ancienne et qui risque de rapidement atteindre ses limites.



Il est dommage, vu la marge de manœuvre bien plus grande dont dispose Linux vu qu’il peut beaucoup plus facilement rompre la compatibilité avec les anciennes version que Windows, n’évolue pas vers quelque chose de nouveau, des concepts inédits.



Il y a encore quelques années, je pariais sur Linux pour faire évoluer l’informatique, aujourd’hui, j’ai beaucoup plus confiance en Microsoft pour ça, dommage !





Merci pour ton «ressenti». <img data-src=" />



Tu parles bien du système d’exploitation qui, après 30 ans de présence sur le marché, est le seul à ne pas être multi-utilisateur ? Alors que même UNIX à sa sortie en 1969, était multi-utilisateur ?



Windows évolue et a de nouveaux projets (sandbox oui, certains parleront de Midodi…).



Les différents projets libres évoluent aussi. On pourrait citer Wayland, KDE4 et Gnome 3 qui ont apporté leur lot de changements et de nouveaux concepts… Pour la question de la sandbox, ça existe déjà : cf SELinux (la distrib sandboxée par excellence), AppArmor qui est installé par défaut sur certaines distribs, ChromeOS utilise aussi une sandbox. Les dernières versions d’Android intègrent aussi une sandbox -je pense que le problème d’Android vient du fait que certaines applications demandent bien plus de droits d’accès qu’ils n’en ont besoin, du coup si une appli est infectée elle a accès à trop de choses.



Bref, les deux mondes n’évoluent pas de la même manière, et n’implémentent pas les mêmes concepts en même temps. Tu trouveras toujours un exemple de quelque chose qui est implémenté dans Windows, et pas dans Linux -ou l’inverse. Mais les deux mondes évoluent bel et bien, et c’est tant mieux pour les utilisateurs finaux.


Le 25/05/2014 à 10h 13







127.0.0.1 a écrit :



Marre des problèmes de failles dans les browser web ?



Faites comme moi: apprenez le HTML et utilisez telnet.





Faites comme ma grand-mère : résiliez Internet parce que ça sert à rien <img data-src=" />


Le 24/05/2014 à 12h 12







jmanici a écrit :



le nombre n’exploits et d’attaques n’est pas proportionnel aux pdm.





On est au moins d’accord là-dessus.


Le 24/05/2014 à 07h 44







jmanici a écrit :



158 jours = ~5mois.

puisque c’est une moyenne, cela confirme bien ce que je dis. Entre 3 et 10mois pour patcher les failles en général. Parfois encore mois, parfois encore plus.



si tu trouves que 158jours c’est beaucoup mieux que 214 tant mieux pour toi.





Oui, 158 &lt; 214.

De même que 86 &lt; 290.

Après c’est vrai que les maths c’est pas une science exacte, chacun est libre d’y croire ou pas…



Évidemment que c’est le même ordre de grandeur, il n’y a pas un facteur 10 ou 100 sinon il faudrait se poser des questions. Mais il y a un facteur 1,4 à 3,3, et il faut vraiment être dans le déni pour ne pas l’accepter.



Tu disais «les autres éditeurs ne font pas mieux que Microsoft». Sur la sécurité des navigateurs, si.







jmanici a écrit :



moi je constate que c’est le même ordre de grandeur, malgré le fait que Mozilla n’a pas la pression qu’a MS en terme de support: supporter 5 versions d’IE pendant 10ans et s’assurer que des milliers d’appli intranet populaires (et d’applications Windows utilisant des composants d’IE) ne voient pas leur compatibilité cassée à cause d’une maj de sécurité (et malgré tous les efforts, cela arrive parfois)



bien sûr que MS pourrait patcher plus vite, mais MS a quand même des raisons d’être prudent et d’effectuer une grande quantité de test.



au final, dans les grosses boites, le déploiement des patchs est parfois plus lent que le temps que passe MS a les développer et à les tester avant leur diffusion. Donc je ne pense pas qu’il y ait beaucoup de gros clients de MS qui vont aller se plaindre que 200jours pour corriger une faille non exploitée en liberté c’est trop long et qu’il faudrait bâcler les patches pour descendre à 150jours.





Seconde étape : tu trouves des excuses à Microsoft.



Tu noteras que j’ai aussi dit que Firefox avait davantage de failles que IE ; et même davantage de failles critiques. Pourtant tu n’as pas donné d’excuse à Mozilla ? Pourtant ce ne sont pas les raisons qui manquent. Par exemple tu aurais pu dire que Mozilla doit supporter beaucoup plus de plates-formes : Windows (XP, Vista, 7, 8), Apple OS X et iOS, GNU/Linux, Android… Sans compter Firefox OS bien sûr. Internet Explorer est sur quelles plates-formes déjà ? Ah oui, Windows et… C’est tout. Il y a aussi le fait que Mozilla est une fondation, et a beaucoup moins de moyens que Microsoft.



Mais non, tu as juste chercher à minimiser le fait que Microsoft met beaucoup plus de temps à patcher que Mozilla.



C’est comme tes 60% de parts de marché pour Internet Explorer : tu affabules et refuses de voir la réalité des chiffres dès que ça implique Microsoft.







jmanici a écrit :



bref, il faut arrêter le sensationnalisme. Oui MS est plus long à patcher, mais ses concurrents ne font pas beaucoup mieux malgré le fait qu’ils ont moins de responsabilités.



est ce que c’est un problème qu’une faille connue uniquement par des chercheurs en sécurité ne sont pas patchée immédiatement?



et que dire des failles et de leurs exploits que la NSA achete aux chercheurs afin de se constituer une panoplie d’exploits contre firefox/chrome/IE/safari?





J’aime bien «il faut arrêter le sensationnalisme» et deux lignes plus loin tu parles de chercheurs en sécurité qui vendent des exploits à la NSA <img data-src=" /> Tout ça toujours sans la moindre source d’information bien sûr.



FUD et théorie du complot… Quelle argumentation en béton <img data-src=" />









jmanici a écrit :



une théorie qui s’est vérifié dans le monde des OS mobiles.



Android est un linux. Il est même plus sécurisé qu’un linux desktop car sa sandbox offre une protection qui n’existe pas sur les distribs desktop.



malgré cela, il y a beaucoup de malwares sur Android, y compris des rootkits qui élèvent leur privilège en root.





Oui, il y a davantage de malwares sur Android que sur Windows Phone. Les chiffres sont là, t’as vu, j’accepte les chiffres, je ne suis pas dans le déni (pourtant j’ai un smartphone Android).



Mais ajouter un exemple où ça marche, ne suffit pas à valider une théorie.









jmanici a écrit :



sinon pour les pdm:

http://news.netcraft.com/archives/2014/02/03/february-2014-web-server-survey.htm…



32% pour IIS

38% pour apache.



c’est pas la même chose que 1% de linux sur le desktop et 93% de Windows.



Windows sur serveur a suffisamment de PDM pour être une cible très attractive.





C’est de très mauvaise foi, le nombre d’attaque a peu à voir avec les parts de marché du mois dernier. Tu oublies de mentionner que pendant plus de 15 ans, Apache a flirté avec les 60-70% de parts de marché, contre 20-30% pour Microsoft IIS.


Le 23/05/2014 à 22h 22







jmanici a écrit :



alors on devrait tous migrer vers linux ou osx, en se félicitant d’avoir résolu le problème des malwares. Puis on aura l’air surpris et choqué lorsqu’on se rendra compte que les développeurs de malwares et de toolbars auront suivi les utilisateurs sur ces plateformes.

on aura pas vu ça venir!



on = ceux qui raisonnent comme toi.



plus sérieusement, il n’y a rien qui protège linux et osx contre les mêmes malwares qui infectent les utilisateurs sous Windows. A part les parts de marché bien entendu.





J’ai souvent lu cette théorie aussi, en revanche je n’ai jamais rien vu qui l’étaye. Alors oui, l’exemple le plus évident c’est “Windows très utilisé et très attaqué” contre “Linux très peu utilisé et très peu attaqué”. Mais est-ce que ça suffit à en faire une généralité ?



Il y a un exemple où c’est exactement l’inverse : celui des serveurs Web. Selon cette étude de l’institut SANS, les attaquants préfèrent s’attaquer à un Microsoft IIS qu’à un serveur Apache (page 12). Quand les headers sont cachés les deux sont attaqués de la même façon. Étrange non, alors que Apache a davantage de parts de marchés que IIS ? Ça ne colle pas tellement avec la théorie “le plus utilisé est le plus attaqué”…


Le 23/05/2014 à 22h 10







jmanici a écrit :



c’est également le cas sur les autres navigateurs.



Apple met parfois plus d’un an avant de corriger des failles critiques dans safari après leur correction dans Chrome/webkit.



et contrairement à ce que beaucoup pensent, c’est pas mieux chez Mozilla et Google. Typiquement les failles mettent entre 3mois et 10mois avant d’être corrigées.





On en a déjà parlé ici même, et encore une fois tu sors des chiffres sans citer aucune source.



Selon un rapport de Secunia, il a fallu jusqu’à 290 jours pour patcher des failles dans Internet Explorer, soit plus de 9 mois. Dans Firefox ce temps n’a pas dépassé 86 jours, soit moins de 3 mois (année 2010 uniquement).



Selon cette étude, il y a eu davantage de failles dans Firefox que dans Internet Explorer (p.18) sur la période étudiée (2009-2011). Mais les failles de Firefox ont mis moins de temps à être corrigées (p.19) : 158 jours en moyenne, contre 214 pour Internet Explorer.



Alors, je sais que ces données ne sont plus toutes jeunes, et que la réactivité a fortement augmenté chez Microsoft : les faille sont patchées beaucoup plus rapidement. Ces chiffres sont donc sans doute à revoir à la baisse pour Internet Explorer.



Mais, à moins que tu n’aies des indications récentes indiquant que le temps de patch est devenu plus lent chez Mozilla, je ne vois pas d’où tu sors les «3 à 10 mois avant d’être corrigé».


Le 23/05/2014 à 15h 43







tAran a écrit :



Un truc me turlupine : si j’installe et que je lance IE8 sous Wine et que je me fais infecter par une faille, que se passerait-il ? <img data-src=" />





Le virus aura accès aux dossiers de ton environnement WINE je suppose… Enfin si le virus tourne sous WINE ^^


Le 23/05/2014 à 15h 42

Cela confirme donc ce qui a été dit sur d’autres news : si une faille n’est pas rendue publique, elle met beaucoup plus de temps avant d’être corrigée.

Le 27/05/2014 à 09h 15







kade a écrit :



N’empêche : pour accéder à ton compte il faut -&gt;




  1. Voler ton tél.

  2. Le déverrouiller

  3. Avoir le MDP de l’appli banque

    Et pour avoir tous les accès sur le net, il faut -&gt;

    Avoir 1+2+3 et

  4. Le code à 11 chiffres + les 2 questions secrètes (aléatoirement)

    ou

  5. Avoir le Post-it

    <img data-src=" />





    Avec ça il y a plus de chances pour que l’utilisateur lui-même ne puisse pas accéder à son compte <img data-src=" /> Au moins c’est sécurisé


Le 26/05/2014 à 19h 22







Chloroplaste a écrit :



Bah faut dire que c’est courant de passer de 0 à 12.000 km/h.

Tiens je crois que c’est légèrement au-dessus de la vitesse de libération de l’attraction terrestre.

Ces HDD ne sont donc pas NASA approved <img data-src=" />





Les 350G peuvent surtout être atteints lors d’un choc (typiquement un disque dur qui tombe par terre), où l’objet passe d’une certaine vitesse à zéro en une fraction de seconde. Le temps de cette fraction de seconde, l’accélération est énorme.


Le 26/05/2014 à 11h 22







LordZurp a écrit :



+1 lexos

mes disques ont en moyenne une 10aine de start par an (sur mon serveur), et tournent comme des horloges

le plus vieux arrive sur ses 40k heures de bon fonctionnement :)





Oui sur mon serveur aussi les disques les plus vieux ont 35000 à 40000 heures de fonctionnement (quasi)non-stop et tournent encore.


Le 26/05/2014 à 15h 50







blamort a écrit :



Clair, peut être intéressant sur des HTPC quand seulement 1 emplacement DD.



possibilité de faire du RAID entre PCI et SATA ?

(je pense que du raid entre 2 PCI est possible ? )





Du RAID matériel les cartes mères n’en proposeront probablement pas, en revanche du RAID logiciel c’est tout à fait possible.


Le 26/05/2014 à 14h 38







darkbeast a écrit :



sur l’image il y a marqué download, on peut télécharger les ssd pletox ?





Ça me rappelle quelqu’un qui m’avait demandé si je pouvais lui installer des Go supplémentaires sur son disque dur <img data-src=" />


Le 26/05/2014 à 08h 51

Une très bonne nouvelle l’arrivée du streaming, j’espère que ça se démocratisera. :)









Ideal a écrit :



Oué si le pc est … etc



Mais ma remarque c’était juste pour dire que l’on multiplie la consommation en général ( pas forcément électrique ) … tout ça pour gratter un chouia de confort en plus… ( perso tu tires un cable hdmi c’est pas la mort non plus …



Après tout 10 ans plus tard tous ces PCs ( en trop ou pas ) se retrouveront dans des décharges à ciels ouverts en afrique ou en chine et ça polluera bien plus qu’une ampoule économique ( elle-même plus polluante qu’une ampoule à filaments ).



Après il est sûr qu’un PC économique ça limite un peu les dégâts <img data-src=" /> ( la pointe de l’iceberg toussa ).





Pour l’instant c’est vrai, ça multiplie les machines. Mais ce n’est que le début : il ne faut pas oublier qu’à terme le but des éditeurs sera sans doute de faire passer le flux par Internet et de proposer des abonnements : tu payes xx € par mois pour jouer aux jeux du catalogue. Pas besoin d’acheter un gros PC chez toi, la TV se connectera aux gros serveurs qui font tourner le jeu, l’affichage et les contrôles seront streamés par Internet… Pour le consommateur ça réduit le coût d’achat du PC, pour l’éditeur ça limite le piratage et la triche (impossible d’installer des hacks puisque rien n’est installé chez l’utilisateur).



Pour l’instant cette technologie de streaming n’est pas suffisamment mûre, et ni les débits ni les pings ne permettent de faire passer ça par Internet. Mais qui sait, à l’avenir…


Le 25/05/2014 à 17h 18







Yzokras a écrit :



La fameuse publicité hebdomadaire pour le site agrégateur de Youtube.

Il faut cliquer 2 fois pour pouvoir lire les vidéos sur le site original (Youtube), un peu pénible (oui car je refuse de passer plus de 1 seconde sur un site créé pour diffuser une copie du contenu créé par d’autres, je préfère donner mon temps de connexion au site original, Youtube). NXI premier sur le piratage.





De plus en plus drôles tes trolls <img data-src=" />


Le 25/05/2014 à 10h 21







fred131 a écrit :



PS: attention à préparer le p’tit papier blanc chez toi, il n’y en a pas au bureau de vote. <img data-src=" />





Une enveloppe vide est aussi comptée comme vote blanc.



Bon OK vu la taille des bulletins, une enveloppe vide ça se remarque tout de suite <img data-src=" /> Mais ce n’est pas interdit.


Le 23/05/2014 à 22h 30







n1cow a écrit :



Je pense qu’au bout d’un moment on va avoir une belle annonce pour nous dire que le support est fini <img data-src=" />





En même temps, la version Linux de Skype est légère, sobre, et fonctionne très bien (chez moi en tout cas).



Bon ce qui est toujours chiant c’est que sur un système 64 bits il faut toujours installer des bibliothèques 32 bits pour faire tourner Skype, mais au moins ça tourne.



Si Microsoft refait l’interface et que Skype devient une usine à gaz, tous les utilisateurs de Linux leur cracheront dessus.



Ne pas oublier aussi qu’à une époque (avant le rachat par Microsoft) Skype avait modifié son protocole. Les versions Windows avaient été modifiées depuis longtemps pour prendre en charge le nouveau protocole, mais je me souviens que sous Linux j’ai été quelques semaines avec un Skype qui ne supportait pas le nouveau protocole de Skype… Pourvu que Microsoft ne nous refasse pas un coup comme ça.


Le 23/05/2014 à 11h 58







ledufakademy a écrit :



Si il y a des gains alors ce n’est plus un jeu.

C’est ainsi.





Va expliquer ça à la Française des Jeux <img data-src=" />


Le 23/05/2014 à 09h 32







YohAsAkUrA a écrit :



j’en ai commandé 2 y’a quelques mois… je vais enfin les recevoir alors









non je déconne… faut pas déconner vu le tarrif… mes 2 780ti me suffisent <img data-src=" />





Petit joueur j’en ai commandé 4 pour faire du Quad SLI <img data-src=" />





…non je déconne aussi en fait <img data-src=" />



Plus sérieusement, ce genre de cartes pourra être intéressant pour le calcul intensif.


Le 22/05/2014 à 20h 21







sr17 a écrit :



Tout cela résume bien ce que je dit depuis des années : Nous devons avoir nos propres fabricants de matériel.



Dans le cas contraire, nos intérêts stratégiques sont menacés.



Ensuite, il est évident que pour éviter que les routeurs ne puissent être trafiqués pendant l’acheminement, il faut que le logiciel qui tourne dessus soit entièrement contrôlable. Donc basé sur un modèle libre.



Enfin, le logiciel libre est un bon modèle pour la transparence. Mais il faut aussi financer ceux qui les produisent et ceux qui les vérifient afin d’atteindre un bon niveau de sécurité.





Carrément +1… Mais on en est tellement loin… <img data-src=" />


Le 21/05/2014 à 11h 52







Lafisk a écrit :



Le principe c’est surtotu d’enseigner une certaine capacite d’adaptation, de logique etc…





Oui c’est exactement ce que je dis depuis le début… T_T


Le 21/05/2014 à 11h 18







HarmattanBlow a écrit :



Faut-il sensibiliser les enfants au droit pénal dès l’école primaire ?

Faut-il sensibiliser les enfants à l’économie dès l’école primaire ?





Il y sont déjà sensibilisés. Une mauvaise action est punie. Il ne faut pas voler, taper son voisin… Les enfants qui apprennent ça respecteront ces règles de société plus tard. C’est donc bien une «sensibilisation» au droit.



Quand on parle de «sensibilisation» ça ne veut pas dire se taper tous les textes de loi et leurs annexes. De la même manière, dans le cadre de l’informatique ça ne veut pas non plus dire apprendre l’algorithmique et le C# en maternelle…


Le 21/05/2014 à 10h 30







Lafisk a écrit :



oui mais tu peux pas comparer ce qu’il ce faisait a l’epoque et ce qu’il ce fait aujourd’hui …



Avant tu ne pouvais pas utiliser un ordi sans savoir faire les trous correspondant dans ta bande etc… aujourd’hui tu peux largement etre un expert photoshop sans meme savoir ecrire une ligne de code ni meme comprendre la mecanique derriere chacun de tes filtre.



Ces connaissances sont evidemment un plus mais loin d’etre requissent. C’est surtout que dans la vie professionnelle c’est super utile surtout quand tu dois regulierement faire le lien entre le departement IT et ton propre domaine.





Non mais je ne dis pas non plus qu’il faut apprendre le BASIC dès le plus jeune âge, comme à l’époque hein…



Je dis juste qu’il ne faut pas que les gens restent avec l’idée qu’un ordinateur est une boîte noire, qui est telle qu’elle est et un point c’est tout. Au contraire, il faut enseigner, dès le plus jeune âge, qu’un ordinateur est là pour faire ce que nous voulons, pour être adapté à nos besoins. À l’époque je l’ai appris avec le BASIC et MS-DOS, mais ça peut tout à fait s’enseigner aujourd’hui avec des outils modernes.



Je dis aussi que si on enseigne juste à utiliser le duo Windows + MS-Office, et les dangers de Facebook, c’est contre-productif et ça renforce justement le côté boîte noire, et le côté «c’est comme ça partout et ça n’est pas autrement». Au contraire, faire des petites manipulations simples (justement le copier-coller qui a été évoqué, du code simple avec Scratch, ou même un projet simple de stop-motion comme je le disais dans mon premier message), c’est beaucoup plus général, ça montre davantage qu’un ordinateur peut être manipulé et «bidouillé» pour faire des choses sympa.


Le 21/05/2014 à 09h 35







HenryBasmati a écrit :



Et comment as-tu appris à te servir d’un ordinateur à la base ?

tu commences par l’utilisation, pas le fonctionnement interne de la chose





Justement, mon exemple ne va te décevoir : j’ai commencé sur des machines avec lecteur de bandes magnétiques et où il fallait taper des commandes en BASIC pour faire le moindre truc. Ensuite sous MS-DOS les fabricants filaient un pavé énorme, et il fallait apprendre les commandes pour naviguer dans les répertoires, créer et modifier des fichiers. Souvent il y avait un bouquin de BASIC aussi.



Donc oui, j’ai appris en pratiquant, en utilisant un ordinateur. À l’époque pour «utiliser» un ordinateur il fallait comprendre que c’était à nous de lui dire quoi faire, qu’un ordinateur c’est stupide et ça se programme. C’est ça que je voulais dire.


Le 21/05/2014 à 09h 08







rorix a écrit :



Enseigner les bases de l’informatique oui. La programmation ? je ne vois pas l’intérêt.





C’est quoi que tu appelles «les bases de l’informatique» ?



Parce que si «les bases», c’est inculquer que l’utilisateur doit s’adapter aux logiciels, que les enfants doivent savoir utiliser Windows + MS-Office, je ne suis pas d’accord du tout.



Pour moi «la base» c’est au contraire que la machine peut s’adapter à tes besoins, autrement dit que l’utilisateur peut modifier la machine, la bidouiller, et éventuellement la programmer. Je suis d’accord qu’apprendre un langage de programmation c’est complètement surréaliste à l’école primaire, mais apprendre qu’un ordinateur ça se bidouille, c’est faisable et beaucoup plus pertinent.


Le 21/05/2014 à 08h 40



Apprendre la programmation permet de dépasser la simple sensibilisation au numérique et de se rendre compte qu’on peut modifier les smartphones qu’on utilise, qu’on peut réaliser des films, qu’on peut créer des jeux. On apprend l’anglais, le chinois, il faut apprendre à coder !



Je suis plutôt d’accord avec ça, par contre pas la peine d’enseigner le C ou l’algorithmique, ça rendra le truc plus rébarbatif qu’autre chose.



Quand on parle de «programmation», pour moi ça veut dire «faire faire quelque chose par un ordinateur». Pour faire passer cela il faut des exercices simples, des langages simples (comme Scratch ou Phratch).



J’ai aussi vu des projets où les enfants plaçaient des Lego, prenaient une photo, les changent de place, prennent une autre photo… Puis mettaient les photos bout à bout sur PC pour faire du stop-motion. C’est rudimentaire mais ça leur fait manipuler des outils et comprendre des concepts, tout en s’amusant. Je pense que c’est ce qu’il y a de plus efficace.

Le 20/05/2014 à 22h 14







TZDZ a écrit :



Tu vas plus loin que l’étude, et, en supposant que ton raisonnement soit correct, ça ne montre pas que le fait d’être fermé soit moins sûr que le fait d’être ouvert. Ça montre que le fait d’être fermé ET de ne pas dévoiler les failles implique des patchages plus lent.





Oui, en effet.







TZDZ a écrit :



À propos de ton hypothèse, on a bien vu, sur Heartbleed toujours, que la faille n’a pas été dévoilée dès sa découverte, pourtant c’était du libre.



PS : je suis tout à fait en faveur de l’open source.





Heartbleed est restée non-découverte pendant 2 ans. Elle n’a pas mis 2 ans avant d’être dévoilée, nuance. Une fois découverte, elle a été dévoilée dans la journée, et patchée le lendemain.



Et de toute façon un seul exemple n’est pas pertinent. L’intérêt de l’étude c’est justement qu’elle fait des moyennes statistiques. On trouvera toujours des cas où un code fermé est patché rapidement, ou un code ouvert qui reste longtemps sans patch. Ça ne prouve rien.


Le 20/05/2014 à 21h 44







TZDZ a écrit :



C’est assez vague comme affirmation (je ne suis pas sûr que tu aies bien compris le sens de l’étude qui ne vise pas à comparer logiciel libre ou fermé). Bref ce n’est pas le sujet de l’étude (ce qui ne présume pas de mon opinion sur le sujet) : tu remarqueras que cette accélération du patchage n’est pas chiffrée : c’est normal, il faudrait faire une étude basée sur un échantillon représentatif pour cette question précise.





La conclusion de l’étude dit surtout qu’à partir du moment où une faille est rendue publique, le temps de patchage est significativement réduit, et ça c’est chiffré : le temps est réduit de 29 jours en moyenne.



Dans un code Open Source, les développeurs rendent toujours les failles publiques. Dans un code fermé, pas toujours. C’est pour cela qu’un code Open Source est patché plus rapidement, CQFD.


Le 20/05/2014 à 21h 20







TZDZ a écrit :



Parce que pour toi code source ouvert implique sécurisé ? Bah non, il y a eu la preuve avec Heartbleed notamment : sans une grosse communauté qui travaille, ça n’est pas gage de sécurité. Que les gens travaillent sur un code source ouvert ou fermé n’est pas si significatif que ça… Si une faille est détectée, un code fermé peut aussi être corrigé rapidement si les moyens suivent.





Voir par exemple cette étude :





Our results suggest that disclosure policy has a significant positive impact on the vendor patching speed. Vendors are 137% more likely to patch due to disclosure. In particular, instant disclosure hastens the patch delivery by almost 29 days. Open source vendors patch more quickly than closed source vendors and severe vulnerabilities are patched faster.





Donc le fait que le code soit Open Source est significatif : en moyenne, les codes Open Source sont patchés plus rapidement que les codes à sources fermées.


Le 20/05/2014 à 16h 19







Vilainkrauko a écrit :



En chine, ils ne vont pas par quatre chemin …



Ils ne chinoisent pas <img data-src=" />





Quel humour débridé…


Le 20/05/2014 à 16h 06







Dr.Wily a écrit :



Je les aime bien ces Tinois ils ont tout compris… sauf :



Même si l’on réfléchit au problème, il est difficile de savoir en quoi le bannissement de Windows 8 pourrait aider la consommation électrique ou assurer une quelconque sécurité. Les ordinateurs récents sont bien davantage conçus pour limiter la consommation.



Bon là c’est imparable, ils auraient du trouver un prétexte un peu moins bidon quand même. Là c’est pas super crédible leur affaire.





C’est vrai que ça sent l’excuse alacon© pour cacher les vraies raisons…


Le 20/05/2014 à 19h 30

C’est un produit qui embarque du bon hardware et qui intéressera sans doute les professionnels.



Par contre comme ça a déjà été dit, ils ne s’en vendra probablement pas des palettes. Les Michu veulent une tablette pas cher (&lt;400 €) pour surfer sur les Interweb et jouer à Angry Birds Candy Crush…

Le 20/05/2014 à 13h 12

Si le gouvernement veut se rendre utile, il peut à la rigueur publier un filtre parental, ensuite libre aux parents de l’appliquer ou pas.



Mais cette manie de remettre la surveillance dans les mains des FAI et hébergeurs… <img data-src=" />

Le 20/05/2014 à 11h 45



il ne s’agissait en fait « que » d’une opération de maintenance prévue, mais qui a mal tourné.



Qui a mal tourné ?

«Attention le câble va exploser !!! »

<img data-src=" />



Edit: fixed

Le 20/05/2014 à 11h 34







Z-os a écrit :



Mais je n’ai pas dit le contraire. Je suis d’accord qu’aujourd’hui, la question ne se pose pas.

Par contre, je suis persuadé que dans quelques temps, expliquer la causalité deviendre secondaire.



Edit : ‘quelques temps’, je parle en dizaines d’années comme ordre de grandeur (30, 40, 50 ans)





Je ne vois pas du tout ce qui te fait dire ça. Le but de la science est justement de relier les causes et les effets (et donc “expliquer la causalité”), et pas simplement de trouver des corrélations. Les liens donnés montrent justement que trouver des corrélations, ça peut être rigolo mais ça n’explique rien. Comment la science pourrait-elle fonctionner ainsi ?


Le 20/05/2014 à 09h 05







kikoo25 a écrit :



En même temps, les lenteurs non ressenties… on s’en fout un peu, non ? Comme tous ces benchs Javascript qui ne correpondent en rien aux conditions réelles, ce que d’ailleurs les fanboys de Fx prenaient soin de nous rappeler en permanence… jusqu’à ce que Fx y reprenne la tête…





Le temps de démarrage, tout le monde le ressent, que ça soit Mme Michu ou le power user.



La conso mémoire, ça intéresse surtout ceux qui ont une utilisation intensive (plus de 10 onglets). Idem pour le javascript ou le temps de chargement des pages, tu le ressentiras plus ou moins selon les sites que tu visites. Ce n’est pas parce que tout le monde ne le ressent pas autant qu’il faut l’ignorer.


Le 20/05/2014 à 09h 02







Yolélé a écrit :



Une copie du mauvais goût d’office 2013 ;)





Exactement ce que j’ai pensé… J’ai aussi l’impression que depuis qu’Apple a décidé que le «flat design» était la nouvelle tendance, tout le monde s’y met.



M’enfin tant que KDE restera personnalisable à fond et qu’on ne m’imposera pas ce genre de design, ça restera mon environnement préféré <img data-src=" />


Le 20/05/2014 à 08h 48







Haemy a écrit :



La seule chose à copier sur chromium est sa rapidité car firefox est lent comparé à lui . C’est pas pour troller car j’utilise firefox depuis des années et chromium est un peu trop attaché aux service google à mon gout pour que je l’utilise en tant que navigateur web principal, c’est tout.





Comme l’a dit jeje07, tu trolles Martoni <img data-src=" />



Voici des benchmarks récents

(Firefox 27, Chrome 33)



En voici d’autres

(Firefox 29, Chrome 34)



Firefox est plus rapide que Chrome sur le Javascript, et consomme moins de mémoire que Chrome.



En fait les gens qui disent que «Firefox est lent» se basent uniquement sur le temps de démarrage, sûrement parce que c’est la première chose «ressentie» et sans doute la plus visible. Effectivement Firefox met plus de temps à démarrer (surtout à froid) que Chrome. Mais ce n’est pas le seul critère de rapidité d’un navigateur…


Le 20/05/2014 à 08h 13

cestcr.ado <img data-src=" />