votre avatar

cyrano2

est avec nous depuis le 20 juillet 2009 ❤️

1465 commentaires

Le 05/05/2017 à 07h 41







Tchikow a écrit :



Pourquoi en exclure la télévision? En quoi ce n’est pas un support vecteurs des mauvaises images qu’ils prétendent combattre?



Même si c’est un pas dans la bonne direction, je trouve que, comme souvent, on ne va jamais assez loin dans ces luttes…





Vous connaissez des images de télévision où les mannequins ont été affiné par ordinateur ?


Le 26/04/2017 à 09h 35







neves a écrit :



En France, faire une solution “souveraine” consiste à prendre une base existante ou des briques matérielles non-FR, à appliquer 3 patchs propriétaires développés par des étudiants/stagiaires, et à dire que ça y’ait, c’est bon, le produit est français et donc sécurisé.

 

Autant être honnête à la base et contribuer à l’amélioration de l’existant, plutôt que de faire de la merde pour pouvoir y plaquer abusivement le mot “souverain”.





Cela pourrait être ça : un fond de financement pour les outils utiles au pays. Mais bon, c’est vrai que si c’est pour finir dans les poches des grosses SS2I, ce n’est pas souhaitable.



Le budget pourrait aussi être découpé entre l’ANSSI, la numérisation de l’Etat, et l’open data.


Le 26/04/2017 à 07h 44

Cela aurait pu être un outil de financement des logiciels libres utilisé par l’état. Combien l’Etat paye pour avoir une lib openTLS correct ? Alors que tous les échanges confidentiels reposent dessus.



Combien pour les servers web et autre élément d’infrastructure logiciel ?

Le 25/04/2017 à 14h 35







Ramaloke a écrit :



 



Et vu le futur président qui veut gérer le pays comme une PME, ça va devenir la norme le dé-tricotage social partout en France, sauf que nous nous n'avons pas les "class-action" :(      



 

Ca va être génial quand tous les employeurs vont nous demander de passer entrepreneur pour avoir du boulot (Et c’est déjà le cas dans certains secteurs…)





Tout ce que vont gagner ces entrepreneurs, c’est une hausse des prélèvements obligatoires pour compenser le manque à gagner des cotisations patronales (CSG, TVA, ou autre).


Le 20/03/2017 à 13h 33







Jim PROFIT a écrit :



Quoi que l’on mette en place, les enfants le contourneront. 

Avant Internet, on volait les magazines chez le libraire, voir des K7 vidéo chez le loueur et évidemment les K7 du porno de Canal + circulaient. 

J’ai pas l’impression que c’était “compliqué” de voir du porno. Certes moins rapide qu’aujourd’hui, mais tout aussi faisable.

Il faut plutôt lutter sur le fait que des enfants tombent accidentellement sur de tels contenus et souvent bien avant 10 ans.

Mais quelque soit le blocage, les échanges passeront par les outils de communications, mails ou autre.

Aujourd’hui les échanges se font via Snap, à mon époque c’était via wecam ou SMS





Il pourrait négocier des catégories de base “pour jeune” sur les principaux sites, pour bien montrer la différence entre réalité et extrême.


Le 20/03/2017 à 13h 23







Koxinga22 a écrit :



Quel cynisme de la part des commentateurs ! Personne pour reconnaitre la validité du débat.

Ces propositions sont-elles fausses selon vous ?





  • l’accès au porno est de plus en plus facile

  • le porno a un effet accoutumant (il faut des doses de plus en plus fortes pour obtenir le même effet)

  • les contenus les plus trash sont de plus en plus trash

  • la visualisation des scènes très hard à répétition à un effet sur le mental

  • la masturbation à l’excès à un impact sur le physique





    Tu as oublié aussi la diminution des agressions sexuelles qui suivaient l’ouverture du haut débit en Amérique, qui confirmerait donc l’effet cathartique.


Le 20/03/2017 à 13h 21

Peut-être que l’idéal serait de faire une classification pour les 16-18 ans. Le 1er rapport étant avant 18 ans, interdire tous les films porno a cet age a peu de sens.



Cela serait pas mal d’avoir une catégorie “réaliste” et pas seulement les pires fantasmes masculins. Une catégorie qui montre réellement “ce que s’est”, sans tomber dans les extrêmes.

Le 02/03/2017 à 10h 33







eres a écrit :



Le PI Zero est assez “compliqué” pour les petits revendeurs car le port devient presque plus cher et la marge qu’ils peuvent se faire est ridicule (ben oui, ca mange aussi un revendeur)



Ce qui fait que la plupart, font des bundles (souvent peu utiles malheureusement)     



Ce modèle un peu plus cher va peut être aider à en trouver plus facilement





Il pourrait vendre des packs de 5 ou 10, les amateurs feraient des achats groupés.


Le 27/02/2017 à 09h 00

Et la balance avec 2kg d’écart sur 2 pesées successives ?

Le 30/01/2017 à 10h 16

Vous pourriez un peu parlez des trucs bas débit, comme Sigfox ou autre concurrents ? C’est aussi ce genre de réseau qui peut changer les choses en matière d’IOT.



J’imagine ce que pourrait donné en terme de créativiter un RasperryPi  avec une connexion permanente à internet même en bas débit.

Le 05/01/2017 à 15h 47

La SNCF et la RATP répète en boucle que l’open data n’est qu’un cheval de Troie pour que Google leur vole leur données si précieuses.



Elles tuent ainsi toutes entreprises européennes qui pourraient utiliser ces données, et réduit l’efficacité des transports publiques !



Ils sont trop top nos dinosaures franchouillard.

Le 05/01/2017 à 14h 47







OlivierJ a écrit :



Sophisme de l’homme de paille…



Je ne sais pas de qui, mais certainement pas mes commentaires. De toutes façons tu inventes, vu que le passage de la télé SD à HD saute au yeux (on fait plus que doubler la qualité d’ailleurs), et qu’on n’attend pas les limites de perception humaine en conditions usuelles de visualisation. Je n’ai vu personne me dire qu’il n’était pas ravi quand il a acheté sa première télé HD (et pour ma part je suis passé tardivement au HD côté télé, j’ai beaucoup aimé).



Quant à moi, quand la 4K se sera démocratisée, au sens où on aura la majorité des sources disponible en du vrai 4K (et pas du truc trop compressé, juste pour avoir le tampon “4K”), je serai content de m’acheter une télé 4K. Après, augmenter la résolution sera difficilement discernable.





Sauf si ils sortent des écran en 2.4m par 4.2m. Vu que cela ne passe pas les portes, cela sera des écrans souples, ce qui est imaginables avec les oleds. Mais comme tu dis, il faudrait déjà des sources 4K potables.


Le 05/01/2017 à 14h 41







OlivierJ a écrit :



Je ne pense pas que tu aies besoin de 60 Hz, des fréquences entre 30 et 60 Hz sont suffisantes, je crois que pour beaucoup, on ne distingue plus vraiment la différence au-dessus d’environ 48 Hz.

(pour les casques, je ne sais pas comment ils mesurent, c’est 90 Hz par oeil, avec 90 images différentes par seconde ? Il faut faire attention à ce que ça recouvre, à l’instar d’une télé dite 100 Hz ou 200 Hz qui évidemment n’affiche pas 200 images différentes par seconde - ce qui ne servirait à rien de toutes façons)





Bien sûr que si il y a 90 images différentes par secondes sur un casque VR. Cela na rien à voir avec les double balayage d’écran CRT. Concernant la fréquence, la différence est évidente jusqu’à 70 Hz. Le moindre travelling rapide est impossible à voir en 30 hz.


Le 12/12/2016 à 09h 58







CounterFragger a écrit :



On est dans un Etat de lâches, qui estime qu’il est bien plus simple de légiférer pour obliger les plateformes en ligne à déclarer la vente de 2 chaises et 3 DVD par un particulier… que de légiférer pour combattre les montages fiscaux de ces mêmes plateformes.



Y’en a marre de faire systématiquement cracher au bassinet les particuliers de la classe moyenne pour tout et n’importe quoi, quand il suffirait que les multinationales payent leur juste dû pour que le déficit soit comblé !





C’est pire que ça. Pour faire payer les multinationales, il faut les États s’entendent sur des règles communes (calcul de la domiciliation fiscal, calcul d’assiette). Mais il y a toujours un état pour préférer les miettes des autres, plutôt que pas de miettes du tout (Luxembourg, Irlande,…).


Le 12/12/2016 à 09h 55

  Jungledede a écrit :

&nbsp; prochaine étape, demander à ebay les achats des gens pour y ajouter la TVA sur les chinoiseries/russeries ?<img data-src=" />





&nbsp; Il suffit que la TVA soit prélevé par le système de paiement…

Le 02/12/2016 à 08h 49







fofo9012 a écrit :



xlsx est un format ouvert (contrairement à l’ancien xls), tu as les specs (en gros pleins de fichier XML zippé). Sur le site data.gouv.fr tu as en général d’autres formats disponibles.



Je suis partagé sur cette info (qui manque peut-être de précisions ?), d’un coté il me semble assez logique de ne pas tuer certaines administrations: Météofrance ou l’IGN vivent de la vente de leur infos, si demain tu ouvres leur données aux concurrents pour pas un rond, le risque est que ces services ne soient plus que des services de données brut&nbsp; payés à grand frais par nos impôts, et que l’exploitation financière de ces données soit faites par des sociétés étrangères.

D’un autre coté, c’est nous citoyens qui payons via nos impôts l’élaboration de ces données.



Le bon milieu serait une licence d’exploitation commerciale : Un logiciel libre, ou un particulier peut utiliser les données, un Google qui souhaiterait pomper tout IGN devrait payer une licence





Ta remarque est typique de certain fonctionnaire : ouvert mais pas pour tout le monde. Heureusement que Linux n’a pas changé sa licence quand Google l’a utilisé de partout !



Pourquoi avoir peur des “boites étrangères” ? C’est surtout les boites françaises que vous tuez sans accès aux données. Et si cela coûte trop chère, il y a un moyen de retrouver des budgets, on appelle cela l’impôt.



Ces associations (open &lt;-&gt; américains) sont devenu tellement idiotes,&nbsp; que certains assimilent Wikipedia au GAFA !


Le 30/11/2016 à 13h 41







Alkatrazze a écrit :



&nbsp;



Si on voyait tout en simulation, il n’y aurait jamais d’accident.

Les simulations se basent sur ce qui s’est déjà passé et sur ce qu’il risque de se passer. Là, ils avaient estimé&nbsp;que les mouvements de nutation serait au maximum de 150°/seconde, donc ils avaient calibré le capteur pour qu’il aille jusqu’à 180°/s.

Manque de bol, ExoMars est arrivé aux taquets de 180°/s et en plus y est resté trop longtemps.



La prochaine fois, ils prendront ce paramètre en compte. Et manque de bol, au moment de l’atterrissage, il y aura un grand dragon vert qui se prendra la tête dans le parachute et ça personne&nbsp;ne l’avait prévu.



&nbsp;





Je parle de simulation physique. Genre je balance la représentation 3D de la sonde, et je simule l’air autour et tout le comportement. Vu qu’un essaie réelle n’est pas possible sur terre, autant le simuler complètement ici. Vu ce que tu décris on dirait des simulations au doigt mouillé et non l’usage d’environnement complet qui simule tout (mécanique, thermique, fluide, magnétisme,…).

&nbsp;&nbsp;D’ailleurs, la prochaine fois, il devrait prévoir 2 sondes. Si la 1er crash, il auraient le temps de patcher la deuxième :/


Le 30/11/2016 à 13h 36







jb07 a écrit :



Ce n’était pas du code mort, c’était la fonction d’alignement de la centrale. Elle tournait pendant 40s après l’allumage des moteurs, pour pouvoir reprendre le décompte très rapidement en cas de suspension de la séquence. Sur Ariane 5, l’allumage des EAP (une fois que c’est parti, c’est parti) rendait cette fonction inutile. Mais dans la série on ne change pas un système qui marche, il avait été jugé plus prudent de tout garder en l’état (autres temps, autres mœurs). Ironie du sort, c’est dans cette fonction d’alignement qu’une conversion flottant/entier a planté au bout de … 37s. C’est ballot.



Pour la redondance, c’était cohérent : le logiciel ne pouvant pas planter, il était inutile de faire mieux qu’une redondance matérielle, suffisante pour se prémunir d’une panne matérielle sur une des centrales. D’ailleurs, ce principe a été conservé sur la centrale utilisée à partir de 2002, une Quasar 3000 (un petit bijou à base de gyrolaser tri-axes) de chez Thales Avionics. Celle-là ne “tombera” pas en cas d’exception logicielle, la leçon a été retenue. J’ignore si elle est toujours en service (et j’aimerais bien le savoir).





Dans l’aéronautique et dans le ferroviaire, on fait de la redondance avec du matériel différent. c’est le même principe que pour le RAID de disque dure, si une carte tombe, l’autre carte ayant eu la même “vie” a la très haute probabilité de tomber aussi.


Le 28/11/2016 à 13h 48

mouais. Des télémètres qui résistent à l’échauffement dû à la rentrer dans l’atmosphère à 21 000 km/h, après 1 an de voyage dans l’espace, cela n’est pas courant.

Le 28/11/2016 à 13h 43







t0FF a écrit :



Le problème n’est pas vraiment le comportement, mais plutôt la mesure erronée.





C’était prévu. Ne pas gérer correctement la mauvaise mesure d’un capteur, c’est ça l’erreur. Un capteur, c’est toujours + ou - bourré d’erreur.


Le 28/11/2016 à 13h 37

J’ai du mal à comprendre comment ils ont pu ne pas voir ce comportement en simulation…

Le 28/11/2016 à 13h 37







H2O a écrit :



On dirait surtout une redite du bug du premier lancement d’Ariane 5 en 1996 : un dépassement de capacité avait fait croire à la fusée que soudainement elle fonçait vers le sol, l’obligeant ainsi à braquer à fond et dépassant du coup la résistance de sa structure entrainant son auto-destruction.





C’est pas tout à fait ça. C’est un bout de code mort issue de ariane 4 dont il avait fait un reuse de la centrale inertiel. L’enveloppe de vol était différent, et une accélération latéral était différente et saturait un entier (8 ou 16 bits je ne sais plus) mais n’était pas utilisé ailleurs . En ada, un dépassement entraîne une exception… exception qui était branché sur… l’autotest. La central inertiel balance des 0x5555 et 0xAAAA sur le bus de données. Celle-ci est bien tripliqué pour gérer les pannes : 2 centrales, plus un modèle mathématique. Pas de bol, les 2 centrales ont logiquement fait la même chose. La navigation a donc braqué pour compenser ce qu’elle croyait être une déviation.



On note plein d’erreurs cumulés :




  • du code mort

  • un autotest mal placé

  • un système pas testé dans les conditions de vol

  • une exception avec un comportement mal géré

  • une triplication inefficace

  • pas de typage de l’information d’autotest, que le contrôleur n’aurait pas du interprété

    &nbsp;


Le 08/11/2016 à 13h 46







grunk a écrit :



Quelqu’un saurait m’expliquer pourquoi il faut un écran compatible ? Ce n’est pas le capteur source qui génère une image HDR ? C’est l’écran qui recompose ?



Je prend l’exemple d’une photo HDR je peux la voir sur n’importe quel écran. De même une caméra de surveillance supportant le HDR produit une image HDR visible sur n’importe quel écran (typiquement je peux voir l’intérieur et l’extérieur d’une pièce correctement exposée, alors que sans hdr l’un ou l’autre serait sous /sur exposé).



Quelle est la différence ?





Facile, on parle d’écran avec 10 ou 12 bits par couleur et non 8 bits comme d’habitude. Même si cela joue sur la couleur, cela se voit surtout sur la différence de luminosité, ce qui est possible avec des écrans très lumineux.


Le 08/11/2016 à 08h 48







bakou a écrit :



c’est exactement ce que j’ai pensé.

Personnellement, à part pour les altermondialistes-utopistes-doux réveurs, je n’ai jamais compris l’interet du bitcoin. Sérieusement, à part servir de formidable machine à laver l’argent sale et pour les ransomwares, ça nous apporte quoi?

Etre non traçable? arretons la paranoia. Qui en a quelque chose à foutre de vos données de petit contribuable/citoyen lambda?





C’est beaucoup plus facile de lessiver avec des paquets de billets de 500€ et le système bancaire. Le bitcoins est totalement traçable une fois que tu as un numéro de compte.


Le 27/10/2016 à 13h 09







k0rnmuz3 a écrit :



J’ai pensé la même chose…. Il y a des gens qui ont de petites CNC (fraiseuse, tour, etc) chez eux qui sont capable de tout (re)produire, et ça on en parle pas, par contre la petite imprimante 3D faut absolument s’en occuper immédiatement ….&nbsp;<img data-src=" />





Parlementaire obsolète…



Et pour la fabrication d’arme, il parait que c’est plus facile d’utiliser un tube en acier et un clou, pour faire un pistolet de fortune plutôt que du plastique qui va te péter dans les doigts.



Dans tous les cas, ton problème va être de trouver une balle…


Le 27/10/2016 à 12h 40







OlivierJ a écrit :



Tu es sûr de ton histoire ?





oui, c’est le même principe de droit : pas d’affectation de taxe.


Le 27/10/2016 à 07h 48







romu79 a écrit :



Ca ne passera jamais. Cela pourrait faire jurisprudence pour trop d’autres redevance, le service public audiovisuel en première ligne.

&nbsp;La redevance a justement été créée pour affecter directement un prélèvement à un budget, ce que ne permet pas un impôt ou une taxe. En gros, pouvoir arroser les copains de manière sure et certaine…





C’est pas vraiment légal depuis un moment. A l’origine, la taxe était là car seule qq pourcent de la population avait une télévision. Ce n’est plus le cas aujourd’hui.


Le 26/10/2016 à 12h 48







KP2 a écrit :



Pour moi, le renouvellement rapide et massif des idées et des gens est une solution au système complètement ankylosé dans lequel on s’enfonce chaque jour depuis 50 ans…



On a compris ça dans l’informatique depuis un certain temps : le Libre est basé la dessus, le principe de “bazaar” (opposé à la cathédrale) et les méthodes de développement agile reposent aussi la dessus. Le fameux “fail but fail fast”, par exemple, est un corollaire à cette idée…

La génétique elle-même fonctionne mieux avec un fort brassage, avec du renouvellement…



Bref, le principe est de forcer le brassage de tout ce merdier pour faire remonter les bonnes choses coincées dans la vase bien entretenue par la classe politique actuelle.





J’y crois aussi, mais cela sera à peine plus démocratique que maintenant. Au lieu d’avoir l’avis de 5 pelés en commission des lois, tu aura l’avis de 5000 personnes concernées par le sujet.



Je vois 2 manières de faire mieux : tirages au sort annuel de parlementaires parmi la population pour 1 an, poste connu 6 mois à l’avance pour se préparer, et création d’un “congé parlementaire” pour retrouver son poste en revenant. 1 an c’est court pour connaître les rouages, mais cela permet de brasser du monde, d’éviter les professionnels de la profession, et il y a moins de problèmes de reconversion.



Ensuite, on peut imaginer une co-construction des lois avec amendements et vote sur un site web. Un peu comme la loi sur le numérique, les ministères n’intervenant que comme support technique ou par expertise (explication juridique, technique…).&nbsp;



Les parlementaires auraient plus un rôle de contrôle, d’évaluation. Vu l’utilité du Sénat, on peut imaginer quelle place pourrait prendre ces nouveaux parlementaires.


Le 26/10/2016 à 12h 20







KP2 a écrit :



….



Le problème dans cette histoire est que c’est du populisme pur. La démocratie, c’est donner le pouvoir au peuple, pas à l’opinion publique. La nuance est grande…





Tu demandes l’impossible.&nbsp; C’est comme faire la différence entre intelligence et l’apparence de l’intelligence.



Tout système repose forcément sur une petite partie de la population : élection parmi une élite par une partie de la population, lobby présentant une partie de la population qui influence les ministères, en cas de tirage au sort de parlementaires, ils ne représentent aussi qu’eux-même, en cas de consultation ou de co-construction de la loi, seuls ceux qui s’exprime sont entendu.


Le 24/10/2016 à 15h 22

Netflix doit être un génie de fonctionner avec seulement 10€ de plus…

Le 19/10/2016 à 09h 33

Le support hardware est difficile sur rasperry Pi, alors qu’ils en vendent des millions, je n’ose pas imaginer l’état du support hardware pour les autres plateformes de ce type !

Le 18/10/2016 à 16h 01







levhieu a écrit :



Vraie question: Le code x86_64 est-il aussi compact, ou bien l’ajout de registres a-t-il augmenté la taille moyenne des instructions ?





Non, il rajoute un prefix de 8 bits, il me semble. Mais d’un autre coté, le fait d’avoir&nbsp; 16 registres au lieu de 8 supprime des manipulation de pile dans les fonctions. Donc, la réponse est : cela dépend :)


Le 18/10/2016 à 15h 58







OlivierJ a écrit :



Les POWER d’IBM sont RISC, c’est écrit au début ici :&nbsp;fr.wikipedia.org Wikipedia.



&nbsp;





Ok, j’ai confondu avec le system/38 et l’ AS/400 qui utilisait des instructions virtuelles (et un mode d’adressage de 128 bits !)&nbsp;en.wikipedia.org Wikipedia&gt; Aujourd’hui, ce type de CPU a complètement disparu sur les ordinateurs,

même si on trouve encore des survivances dans l’embarqué.



Les ARM typiquement sont encore comme ça. Le but du RISC était de virer le microcode, et de séparer accès registres et accès mémoire, pour raccourcir le pipeline (cela diminue la dépendance des instructions).


Le 12/10/2016 à 17h 19







kypd a écrit :



Après les investissement des fondeurs et les développements plus ou moins abandonnées de certaines architectures font passer certains produits pour des “veaux”, mais disons que si tout le monde mettaient les même somme qu’Intel en R&D pour son architecture ils seraient plus ou moins au même niveau <img data-src=" />





Comme pour l’itanium ? Le x86 a quand même un avantage comparatif : le code binaire est très compact ce qui est un avantage pour les caches instructions, même par rapport à ARM thumb.

&nbsp;





kypd a écrit :



&nbsp;



Pour donner un exemple concret, ARM n’atteint pas les perfs du x86 pour être utilisé confortablement dans un laptop car pour atteindre ce niveau de performances il faudrait ajouter de grosses unités d’ordonnancement et de prédiction de branchement comme sur les architectures Intel et du coup se retrouver avec le même niveau d’efficacité énergétique…





En fait, dans le domaine des cpu de 25 ou 40W, Intel est plus performant par W, que ARM. Le problème est quand intel à sorti des cpu dont la consommation en veille était celle full speed d’un arm (2W à l’époque).



Si ARM veut aller plus vite sans trop consommer, il faut inclure le controlleur DRAM dans leur pipeline, il faut un jeu d’instruction vectoriel standard qui ne change pas tout le temps: NEON ou pas(même syndrome que pour la fpu a une époque),&nbsp; il faut des instructions spécialisés qui “poutrent” (AES, ….), bref plus de registres plus large, et un jeu d’instruction plus large, sinon il faut un paquet d’intelligence en HW pour aller plus vite.


Le 12/10/2016 à 17h 12







AlphaBeta a écrit :



Nous

sommes d’accord sur le “bordel” du x86 qui aurait mérité une remise à

plat…. occasion ratée avec le fameux et pitoyable x86-64 d’AMD !

&nbsp;Je crois que comme tout, la vérité est au milieu du gué… architecture intermédiaire entre risc et cisc





il est très bien le x86-64, il normalisait tout un tas de truc comme le SSE2, et les 16 registres.


Le 12/10/2016 à 17h 09







OlivierJ a écrit :



Il n’est pas tombé dans l’impasse, il reste du RISC (mais pas en grand public, soit ARM, soit les gros POWER d’IBM et les Sparc de Sun par exemple), et le CISC a pris des mécanismes du RISC, par exemple les CPU Intel décomposent les instructions CISC en instructions plus simples ce qui s’apparente à du RISC en interne.

&nbsp;





&nbsp;Les POWER ne sont pas RISC du tout. Ils n’ont rien à avoir avec les powerpc, et sont justement des monstres CISC microcodé jusqu’à l’os.&nbsp; RISC ou CISC se termine par “instruction set”, on parle bien du jeu d’instruction et pas du tout de micro architecture. Donc, non, Intel ne fait pas du tout du RISC en décomposant en micro instruction, puisque c’est justement en utilisant du micro code que fonctionne un CISC.





OlivierJ a écrit :



IBM a construit une nouvelle architecture avec son PC, le 8086 n’avait pas à être compatible avec quoique ce soit avant, le 68000 aurait très bien pu être choisi (comme il l’a été par Apple et d’autres).





Si, tous les programmes écrient “avant” étaient compatible (sauf les OS en gros).&nbsp; C’était le mode 8 bits et 16 bits.


Le 12/10/2016 à 14h 57







ldesnogu a écrit :



Si seulement IBM avait pris le 68k, on ne se trainerait pas cette sombre bouze de x86…





C’est aussi parce que motorola a cassé complètement la compatibilité avec les processeurs plus petit 6800, ce qui n’était pas le cas d’intel.


Le 12/10/2016 à 14h 52







garvek a écrit :



Il faut différencier d’un côté le x86 qui est “fixe”, standardisé et donc a permis un gros déploiement et adoption, de ARM, qui est modifiable / adaptable à volonté par l’acquéreur de la license: une puce ARM peut contenir tout &nbsp;et n’importe quoi, que ce soit en unités de traitement, fonctionnalités, et même jeux d’instructions … pas étonnant que ça soit un cauchemar pour les développeurs de drivers.





N’importe quoi. L’acheteur d’IP n’a pas le droit de toucher une virgule du code ARM qui est souvent “en dure” (compiler). Le problème sont les ajout autour, et les manques de la brique CPU de base (boot, controleur DRAM, RTC, serial com).


Le 12/10/2016 à 14h 50







OB a écrit :



Et surtout, il passe complètement sous silence les problèmes de sécurités soulevés ces derniers temps autour des plateforme x86 : Les multiples problèmes des bios UEFI, le SMM, les problèmes de leak d’info avec le Ring -1 ou la DDRam , l’AMT…





C’est mille fois pire dans l’embarqué. La plus part des téléphones ont un “processeur baseband” pour faire la communication en plus du processeur applicatif. Et bien sûr la mémoire est open bar pour ce processeur.&nbsp; Ce genre de blob peut être mis à jour par le réseau.


Le 12/10/2016 à 14h 48







Burn2 a écrit :



Mais en plus dans le cas de l’embarqué on tombe souvent sur un pb de blob qui n’a pas d’équivalent libre. ET bien souvent c’est la radio et/ou le gpu. Donc quelque chose de critique.





C’est bien pire que ça. Il est souvent impossible de faire un OS binaire universel qui déploie les drivers qu’il a besoin. L’OS doit savoir “par ailleurs” sur quoi il boot, sous peine de faire des conneries en tentant de découvrir le hardware.


Le 12/10/2016 à 10h 05







tpeg5stan a écrit :



On en parle de MediaTEK qui refuse de donner le code source pour ses produits ?



Effectivement, le problème de l’ARM est que si tout le monde fait n’importe quoi dans son coin, forcément le noyau linux aura du mal à faire des miracles derrière :/





C’est la faute de ARM&nbsp; de ne pas ajouter ce qui manque pour en faire une plateforme : système de boot standard (inclus le réglage de la DRAM), une RTC standard, interface série standard, un système pour déclarer la présence ou non de périphérique. C’est le minimum pour avoir un OS portable, mais cela n’existe pas encore.


Le 12/10/2016 à 10h 02

“Ces réponses en auront sans doute étonné plus d’un, les premières amours

de Torvalds ayant été pour l’architecture RISC, sur laquelle est basée

ARM.”



Cette phrase montre que l’auteur de l’article n’a absolument rien compris du tout à ce qu’a dit Linus.



Il a notamment dit qu’il ne parlait pas du tout de jeu d’instruction, mais de ce qu’il y a autour. Donc, parler de RISC est hors de propos. En plus, Linus qui a bosser chez Transmeta, a bosser sur un processeur VLIW, pas RISC.



De plus, le PC est des manières standards de faire des choses qui apparaissent comme évidente mais qui ne le sont pas du tout sous ARM, comme démarer la plateforme, la gestion du boot assuré par le BIOS.



En fait, ce qui manque a ARM, c’est tout ce qu’il y a autour du cpu, définit par la norme PC : bios, horloge, gestion du clavier/souris, déclaration des périphériques PCIe,…



A la limite, on pourrait imaginer un “PC” avec un coeur ARM.

Le 18/10/2016 à 08h 10

C’est un scandale ces appels aux dons, encore un avantage accordé à ceux qui peuvent facilement payer leur amendes, aux riches privilégiés qui … euh, wait !

Le 03/10/2016 à 08h 24

« Comment définir ces gens - toujours les mêmes, officiellement des

particuliers - qui s’érigent en experts plus ou moins éclairés, dont les

analyses, souvent lapidaires, ne reposant sur rien, sont pourtant

largement diffusées ? »



Notez que cela marche aussi avec “sénateurs”. On est rarement ébloui par leurs analyses.

Le 21/09/2016 à 11h 47







odoc a écrit :



oui je pige non plus le problème <img data-src=" />





Il utilise tor, puis arrète de l’utiliser. Et paf, 10ms de ping en plus.



Cela veut dire qu’il y a un truc de plus qui arrive à ses paquets IP, qui ne leur arrivait pas avant d’utiliser TOR. Cela peut être du DPI léger pour détecter d’éventuel attaque informatique (qui peut entraîner le bannissement du fournisseur). Cela peut être une boite noire, etc…


Le 14/09/2016 à 15h 38

“l’obligation d’exploitation” ?

Le 08/09/2016 à 15h 03







Janus24 a écrit :



Il est comment le réseau SFR par rapport à Free ?





Fonctionnel.

&nbsp;

Enfin dans le coin de France où j’habite, je ne compte plus les connexion en 4g, H+, H, 3g, avec zéro bit qui circule. Même avec l’antenne 4G à 400m. Et cela me fait mal de dire que cela marche mieux pour la boite de Drahi.


Le 08/09/2016 à 12h 44

« On vient nous demander de faire un effort, on le fait puis

ensuite ; on nous le reproche, alors que les acteurs ne sont pas

prisonniers ».



Il nous prend vraiment pour des cons…

Le 07/09/2016 à 07h 54







romu79 a écrit :



La France est un pays merveilleux. On peut fliquer à outrance l’ensemble de la population via des boites noires installées sur le réseau mais on ne peut pas exploiter les données d’un téléphone saisi lors d’une perquisition…

On marche vraiment sur la tête !





Perquisition administrative, le truc fait à la tête du client, hein…


Le 05/09/2016 à 13h 40







Guimareshh a écrit :



… Il y a une trop grande confusion sur sécurité, vie privée et avec le terrorisme j’entends beaucoup de personne accepter les lois pour la raison suivante “Je n’ai rien à cacher de toute façon”. Ces gens la ne comprennent pas la gravité de la situation.&nbsp;





A ces gens-là, demandes leur leurs feuilles d’impôts, et où est leur chambre à coucher pour installer une camera. Ils n’ont rien à cacher, ils n’auront donc aucune objection.