votre avatar

amFXR0

est avec nous depuis le 2 novembre 2008 ❤️

104 commentaires

Le 04/07/2013 à 15h 27

Si il y a un grand site high-tech québécois : PCinpact !

la relative “faible” présence des québécois est aussi due au fait que la tendance est plutôt a passer sur des sites anglophones assez rapidement je pense aussi.


Le 28/06/2013 à 11h 47

Si elle sont aussi efficace que le modèle équivalent de Zotac pour Sandy, ce sont de très bonne CM : très bon rapport qualité prix, et globalement très résistante !


Le 25/06/2013 à 12h 53

@agauthier51. L’image est tirée du trailer du 2 présenté à l’E3


Le 24/06/2013 à 05h 51

Non, car cela ne m’interesse pas, et parce que la bande annonce me confirme ce que je pense : c’est de la fiction !



BA :

Wozniak + Jobs => “il suffit d’une personne” => Wozniak + Jobs => “pour lancer une revolution” => Wozniak + Jobs



je suis mauvais en calcul, mais ca, ca fait 2 !


Le 11/06/2013 à 00h 34

The Division promet énormément ! Reste à voir si il tiendra ses promesses. Jusque la, LA surprise de cet E3 sans doute. (enfin la seule qui avait pas leaké !) <img data-src=" />


Le 10/06/2013 à 23h 50







Shinichi76 a écrit :



Mirror’s Edge 2, enfin !

Pour qu’il soit parfait faudrait qu’il soit comme le 1 avec une durée de vie améliorée ! Et l’histoire ? Déjà le bon point, c’est que même si Faith a changé (enfin je crois que c’est encore elle) ils ont pas misé sur les boobs - de toute façon on les voit pas dans le gameplay…







Il s’agit bien de Faith (au vue des tatouages), et les informations ne sont pas claires : reboot ou préquel.

(et de toute façon, outre sa non visibilité dans le gameplay, une poitrine opulente pour le parkour, ca parait pas forcément très pratique non plus !)



En espérant que le nouveau Battlefront fera lui aussi honneur aux précédents !



Le 10/06/2013 à 22h 17

“Et un dernier petit détail : Mirror’s Edge 2”



<img data-src=" /> c’est pas bien ce genre de troll !



Reste plus à ce qu’il soit bon !


Le 10/06/2013 à 12h 24







yvan a écrit :



Pour préciser mon propos, effectivement ça marche, mais ça mouline grave niveau ventilation donc de mon point de vue ça ne ventile pas assez (je ne joue pas au casque). Peut être en watercooling c’est mieux…







Je connais en effet quelqu’un avec la même config (580 et I7) qui y a mis un water-cooling, et ca semble bien marcher. Pour ce qui est du bruit, à pleine charge (sur un BF3 par exemple), il est en effet bien audible, mais rien d’invivable, loin de la dans mon cas.



Le 07/06/2013 à 16h 27







ptit.tom a écrit :



J’ai une GTX570 dans un silverstone SG07, ca marche très bien.







En effet, j’ai une GTX580 et un I7 3ème gen. dans le même boitier, je n’ai jamais eu de problème jusque la (et pourtant le boitier à souffert d’un déménagement transatlantique).




Le 31/05/2013 à 18h 49







NiCr a écrit :



WOT ? Web Of Trolls ?



La campagne contre Linkeo qui y est lancée est du même niveau que la mise en demeure de Linkeo : risible.







Juste à titre informatif : sur WOT, ils étaient déjà dans le jaune ou l’orange dans chacun des critères avant cette histoire. Donc, c’était déja pas glorieux avant !



Le 28/05/2013 à 15h 18

@zoG



oui, tu remarquera que dans cette interview il n’est fait mention QUE de la caméra d’ailleurs. Aucune information sur le micro ! Or c’est la base du sujet de cet article Et justement, Microsoft fait très attention de ne rien dire à ce sujet.


Le 28/05/2013 à 14h 03

Oui, enfin le parc d’attraction qui va prendre la moitié des 2 km² de chaque ville, j’avoue que je le sens assez mal !

Avant de faire ce genre de DLC, de nouvelles régions avec des villes 5 fois plus grandes s’impose !


Le 23/05/2013 à 02h 38



…et s’il réussi à résister à l’effondrement des marges qui devrait se produire dans les prochaines années dans le domaine des serveurs puisque les AMR multicores arrivent





Ca pour le coups, on y est pas, mais alors pas du tout !

Dans le domaine de la puissance de calcul brute, les ARMs restent, aussi bon soient ils, encore trés loin, surtout en serveur : et il est aussi peu naturel pour le X86-64 tel que présent dans les serveur d’être en mobilité que pour la totalité des ARM d’être en calcul brute .

L’effondrement des marges n’est pas encore pour tout de suite dans ce domaine.

Après pour le “calcul léger”, en effet, ca sera le nerf de la guerre.


Le 22/05/2013 à 16h 34

Pour AMD, PS4 et Xbox One vont peut être quand même aider un peu pour 2013 ? non ?


Le 07/05/2013 à 12h 16







mightmagic a écrit :



Mass effect n’es plus un RPG depuis le 2. Donc je doute que si bioware copie mass effect, il fera un rpg.







Certes : C’était devenu plus action que RPG. Mais cela restait de bons jeux (étant un fan, je suis pas du tout impartial !).

Mais quand je disais RPG, je ne voulais pas être ca comme réducteur, des jeux action-RPG pourraient très bien s’intégrer dans l’univers SW.

Evidemment, il faudra voir une fois face au produit fini, mais je crois qu’il faut pour le coups leur laisser une chance. (peut être plus que du côté film !)



Le 07/05/2013 à 11h 46

Bien sur il va falloir attendre de voir pour y croire, mais Bioware (surtout Montréal !) est quand même une référence dans le RPG de SF.

Et si leur tentative de MMO était assez discutable sur beaucoup de points, c’est un peu car il l’ont conçu comme un RPG solo !

Donc on peut espérer des suites (ou de nouvelles “licences”), au moins dans le domaine du RPG, de bonne qualité.

Alea jacta est !


Le 07/05/2013 à 08h 24







Tolor a écrit :



Non, ce sera du WIndows 8 sous atom apparemment







Merci beaucoup pour l’info ! Un produit à surveiller donc.




Le 07/05/2013 à 07h 53







labdam a écrit :



Rien ne l’indique pour le moment, et comme ASUS fait les deux… ca n’aide pas <img data-src=" />







OK merci ! Espérons que ce soit du x86, ce qui en ferait un produit vraiment interessant !



Le 07/05/2013 à 07h 33

question peut être stupide, mais dans la tablette dont parle ASUS à 300€ environs, ce serait du windows RT (et donc ARM) ou du windows classique (et donc x86) ?

Car dans le second cas, ca deviendrait un produit qui pourrait être vraiment intéressant !


Le 06/05/2013 à 08h 28

oui enfin moi je vois surtout les dérives possible : comme il le dit, sur PSVita cela existe déjà. Et, étrangement, toutes les bouses qui sortent dessus désactivent complètement l’enregistrement (cf. le call of duty qui est sorti dessus il me semble). Pour moi, c’est plutôt ça le problème.


Le 29/04/2013 à 17h 35







Mamamia a écrit :



M’en tamponne de leur fanfest, je veux pas de leurs modifs des battleships amarr, personne n’en veux d’ailleurs <img data-src=" />



Va falloir qu’ils se mettent très serieusement à bosser sur les lasers chez ccp, parce que plus ça va, plus ils font n’importe quoi avec <img data-src=" />



Note pour les curieux : Amarr = une des 4 races jouable du jeu, race qui se sers principalement de lasers <img data-src=" />







+1000 : pas mieux !




Le 17/04/2013 à 13h 55







NonMais a écrit :



Tu aurais pu ajouter….“ah mais qu’est-ce qui me bloque, pourquoi je reste coincé là?” “Ah mais oui, y a un cailloux/un reste de mur de 10cm de haut que je n’avais pas vu : il faut que je saute voire faire le tour”



Ou encore un char de plusieurs dizaines de tonnes lancé à pleine vitesse arrêté par une poubelle, un grillage… les dév ne l’avaient pas paramétré comme étant destructible/déplaçable







En effet, c’est particulièrement flagrant en véhicule. Mais bon, c’est pas rédhibitoire non plus.



Sinon, une rumeur faisait état du retour du mode “commandant” dans BF4. Voila qui serait une très bonne chose !



Le 16/04/2013 à 17h 10

pour reprendre l’argumentation que j’avais faite il y a qqs jours chez korben :







  • premièrement l’ADS-B : chaque avion civil envoi diverses informations (positions, compagnie, modèle, vitesse, destination, …) en permanence à travers ce protocole. Il est parfaitement connu et non crypté (chercher SDR# ADS-B sur google pour vous en convaincre), et le recevoir (et afficher en temps réel les avions sur une carte en temps réel) est un jeu d’enfant, connu depuis assez longtemps (rien de nouveaux). C’est un protocole uniquement avion =&gt; sol. Pas de “piratage” d’avion grâce à cela. les radars virtuel (comme celui ci :http://www.flightradar24.com/ sont complètement basé la dessus.

    Seul possibilité : avec un transpondeur adapté, émettre de faux positionnent d’avion. Néanmoins, sans le reste des signaux nécessaire, un tel signal serait très vite détecté, et facilement pistable.





    • Pour l’ACARS. La en effet, la non présence de cryptage est plus problématique : le protocole fonctionne dans les deux sens et envoi des informations parfois “sensibles” à l’avion. Néanmoins, ce n’est, dans un avion, jamais connecté au commande de vol. Ainsi, il est absolument impossible d’envoyer depuis l’ACARS des commandes de vols. Le test qu’il fait ici est basé sur du matériel obsolète et modifié, qui n’est pas intégré à un système de vol complet.



      Même si l’unification de tout le système, et son test sur des ordinateurs de vol est lui une première, tout le reste est connu depuis longtemps.

      Et si vous voulez tester par vous même pour l’ADS-B (en toute légalité) : un adaptateur TNT USB (qui font de trés bon récepteur SDR pour 15€ après modification des dirvers) , un logiciel du type SDR# et les programmes pour afficher le tout, et le tour est joué en 15 minutes !



    • le TCAS (ici actif) par exemple possède volontairement une portée limitée : il faut pour répondre au transpondeur d’un autre avion être situé dans la sphère de réception de celui-ci (environs 30 km).

    • les ordinateurs de vols croisent aussi les informations pour s’assurer qu’il y a bien présence d’un avion : ADS-B, TCAS, radar actif, transpondeur analogique, … Ainsi, il faudrait être en position “d’émuler” un certain nombre ces signaux pour provoquer des changements (et que ceux-ci soit cohérents, comme dans le cas du TCAS avec les identifiants transpondeur).



    • Enfin de manière plus physique, pour émettre tout cela de manière “efficace”, il faudrait se situer…dans le ciel ! Par exemple, les stations aux sol, de manière assez logique utilisent des antennes dont le diagramme de réception est principalement orienté vers le “haut”. De même pour le TCAS, il se base aussi sur la “manière” dont il reçoit le signal pour localiser la position “générale” d’un avion (par quelle antenne, quel force, …).



    • Pour résumer, pour émettre tout ces signaux de manière adaptée, et arriver à provoquer un changement dans les contrôles aériens, il faut être dans un avion ! Et alors l’émission de tout ces signaux devient assez logique !



      Enfin outre le smartphone (car oui, dans son exemple il prend comme exemple une application android qui ne fait que communiquer à travers une Raspeberry pi avec tout le reste du système. Quand il est dit “juste avec un smarphone”, c’est tout simplement faux !), cela impliquerait quand même le matériel nécessaire à l’émission de ces signaux (transpondeur, antenne, amplificateurs, source d’énergie non négligeable, …).

      Dans ce que l’auteur de ces travaux explique dans son PDF zappe une partie importante : il utilise pas de système radio ! il se connecte directement sur les ordinateurs de vols.



      De plus, durant les phases d’approche, ces systèmes ne sont plus prioritaires.



      Enfin, au final, c’est quand même toujours le pilote qui à le dernier mot : aucun de ces systèmes n’a l’accès aux commandes.



      Mais oui, au final, ces divers protocoles mériteraient que les sécurises un minimum.



Le 25/03/2013 à 11h 38

Les Mass Effect resterons les meilleurs jeux auxquels j’ai joué (particulièrement le 1, je fais parti de ceux qui aimait le Mako !)

Et l’univers qu’ils ont crée autour est complet et profond : je trouve que ne pas l’exploiter plus serait dommage. Mais Shepard, c’est fini : il faut arrêter quand il est encore temps.

Et Garrus powa !


Le 19/03/2013 à 19h 56







fma16 a écrit :



Pas plus d’information sur cette “Stacked DRAM “? Non, parce que plus abstrait je vois pas trop <img data-src=" /><img data-src=" />







En faite c’est une évolution dans la manière de fabriquer les puces de mémoires : actuellement on atteint une limite de la taille des puces de mémoires possibles : limite de taille physique.



Pour parler plus clairement : plus de cases mémoires (et donc de capacité) peut se faire par deux moyens :





  • Augmenter la densité (et donc diminuer la taille des cases mémoires) : c’est ce que l’on fait depuis longtemps, mais il devient de plus en plus difficile de continuer efficacement.

  • Mettre plus de cases mémoires : ce que l’on fait aussi, mais la il y a une limite physique : celle de la vitesse des électrons. Plus la puce mémoire est grande en taille, moins on peut augmenter la fréquence : les cases les plus éloignées mettent plus de temps à répondre.



    La solution c’est celle des gratte-ciels !

    Au lieu de mettre les étages à cotés des autres, on les empile ! On fait une couches de X cellules mémoires, puis une autre au dessus, puis ainsi de suite. En pensant en 3D on réduit le chemin à faire pour aller au cellules les plus éloignées (pour une quantité égale).



    Néanmoins cette technologie demande encore un certain nombre de perfectionnements, surtout pour la mémoire graphique.



Le 24/02/2013 à 16h 48







raoudoudou a écrit :



Permets-moi de corriger ton propos.



Le photovoltaïque n’a aucun intérêt à grande échelle. Il n’a d’ailleurs pas du tout été conçu pour! C’est fait pour avoir de l’électricité là où on ne peut l’apporter que difficilement. Et en plus, il faut, selon son implémentation, la stocker! Quel fouilli!



Le solaire est au contraire une solution d’avenir.



Faut pas confondre les deux.



Le solaire (four solaire par exemple) ça fonctionne très bien, rendement énorme, bilan carbone largement favorable, etc. Des fours solaires rudimentaires et efficaces font partie de nombreux programmes dans les pays sous-développés mais on peut aussi s’en servir à nos lattitudes (pas toute l’année, évidemment).







Oui oui, bien sur excuse moi.

je ne parle QUE du photovoltaïque évidemment.



Pour le reste, les problèmes dont je parle n’existe pas. Merci de le souligner !

(j’éditerais si le pouvais !)



Le 24/02/2013 à 14h 59







2show7 a écrit :



Une de ses réponses m’a un peu perturbé (je n’ai pas compris le sens : son refus des panneaux solaires)







Le solaire pose actuellement encore un gros problème : son recyclage. Composé de silicium et de quelques grammes de métaux lourd, et ayant une durée de vie limitée (15 à 20 ans), il serait une source de déchet énorme en cas de grande utilisation pour des rendements énergétique dépassant difficilement 10%. En l’état actuel, ce n’est pas une solution viable à grand échelle, uniquement en appoint ou en zone isolée.



Il faudrait en réalité attendre des avancées sérieuse dans le domaine (et il commence à en y avoir, atteignant des rendements parfois jusqu’à 30% en laboratoire) et avec d’autre alliages pour que cela puisse sérieusement être envisagé.



Donc en l’état actuel des technologies, il a raison. A échéance de 10 ou 15 ans, ce sera peut être à ré-étudier.



Le 21/02/2013 à 22h 35







choukky a écrit :



Seul les gamers canadiens pourraient faire la relation[…]

<img data-src=" />







Et encore ! Seul les gamers Montréalais en réalité. Et puis pour une ville aussi reliée au jeux video que Montréal, il est quand même stupide de s’opposer, sur des motifs aussi fallacieux, à un peu de “pub” gratuite. La STM n’étant normalement pas aussi regardante.

Quand dans BF3, on voit le metro parisien, reproduit relativement fidèlement (on le reconnait sans aucun doute : le carrelage, le style des indications, même si pour le reste, je suis d’accord, beaucoup d’approximation) du-moins dans son ambiance, la RATP n’a pas crié à la tentative d’attentat !



Le 21/02/2013 à 22h 30







waxime a écrit :



ce qui n’est pas dit dans l’article, c’est qu’il y a un méga lan party à Montréal et ça devait être la carte de la final de counter strike







Hé oui ! à l’ETS Montréal du 1er au 3 mars !

Le club LAN de l’école (mon école ! <img data-src=" /> ) organise ça, avec recrutement et “réseautage” en vue (informatique et social !)



Le 17/02/2013 à 00h 41







amFXR0 a écrit :



heu….ok ! ca se tente ! Annulation de la commande quasi garantie, mais sait on jamais….







(trop tard pour l’edit)



En faite, plusieurs articles ont un problème de prix :



http://www.conrad.fr/ce/fr/product/882173/Canon-imprimante-Pixma-MX895/?ref=detv…



Hack ? Stagiaire incompétent ?



Le 17/02/2013 à 00h 33







ichi a écrit :



http://www.conrad.fr/ce/fr/product/416345/Disque-dur-interne-SANDISK-SDSSDX-480G-G25-480Go-25-SATA-III-600-MBs-Extreme



<img data-src=" />



€ 27,90







heu….ok ! ca se tente ! Annulation de la commande quasi garantie, mais sait on jamais….



Le 12/02/2013 à 14h 46







jonathan02 a écrit :



Vous pensez vraiment que les étrangers voudraient avoir des chaines françaises totalement pourries, qui diffuse, que de la m*erde ? Par contre je suis pour avoir les chaines américaines, mais bien sûr ce n’est pas prévu :(

En - 2000 : La France ce beau pays



En 2012 : La France ce pays de m*erde : D (petit coup de gueule)







Vivant actuellement en Amérique du Nord, je t’assure que régulièrement la télé française te manque quand tu regardes le niveau de la télé canadienne !



(Attention , je dis pas qu’elle me manque en générale, je ne regarde pas la télé e manière générale, juste en comparaison avec la télé locale).



Mais un exemple simple est l’impossibilité de regarder Arte !

Ou encore, le fait qu’un des gros avantages de la télé française est la diffusion d’évènement sportif sur le réseau publique !



Après je pense que c’est en effet un problème bien secondaire au final, et que, surtout quand on n’a pas la télé chez soi comme moi, on s’en fout pas mal !




Le 27/01/2013 à 02h 27







127.0.0.1 a écrit :



perso je ne regrette pas d’avoir acheté l’album de Dub FX. <img data-src=" />







Pas mieux !




Le 23/01/2013 à 05h 03

[HS]







patos a écrit :



C’est sûr, et jusqu’à présent, on a du 100% sous Windows, là où on a du 0% sur du ARM. (BSD n’existe pas et Linux, tu fais attention à ton matos avant de l’acheter sinon tu es suicidaire)







BSD commence à exister sous ARM : la Rasberry-Pi vient d’avoir sa première build officielle ! Et ca c’est une nouvelle qui fait plaisir !



[/HS]



Sinon, cette Surface Pro est en effet intéressante, mais je ne me lancerais pas avant d’avoir eu l’occasion de tester ce fameux stylet et sa réactivité. (Vivant au Canada, j’ai l’espoir de la voir en magasin un jour…peut être !)




Le 11/01/2013 à 13h 12

Le sondage sous entend que si on à Windows 8, on à forcement payé la licence.

Or beaucoup d’étudiants comme moi, ont accès au MSDNAA (sous toutes ses formes) , ou les licences sont gratuites. Une différence légère mais sensible !


Le 19/12/2012 à 16h 04







brazomyna a écrit :



Depuis la France, quel est le magasin le moins cher pour un Raspberry type B ?

Parce que j’ai bien vu ce magasin là (http://raspberrypi.rsdelivers.com), mais tu démarres en théorie à 35$ (soit 26€ brut de conversion) et au final tu finis à 39.16€.



Bref, que les taxes, frais de port, etc… induisent des coûts non nuls, rien de plus normal. Mais que ça atteigne 50% du prix initial, ça me paraît un peu beaucoup, non ?







Pour le prix, je ne sais pas (vivant au canada, je l’ai acheté chez Allied Electronics).



Pour ce qui est du délais, pas le choix : la production est en flux tendu depuis le tout début, et malgré une augmentation des capacités de productions, ils ont du mal à suivre l’augmentation de la demande !



Le 19/12/2012 à 04h 20







v1nce a écrit :



quelqu’un peut expliquer pourquoi ils ont dispatché les I/O sut toutes les faces du truc ?



ca aurait été sympa de pouvoir les encastrer das un mur.







Parce que un routage avec les I/O sur un unique bord eut été impossible sur un si petit PCB ! seule raison je pense.



Le 18/12/2012 à 15h 20







coket a écrit :



Il doit falloir que l’appareil à l’autre bout du câble soit prévu pour non?







Tout à fait, comme l’ont précisé KP2 et al_bebert, cela nécessite un injecteur qui ajoute aux signaux un courant continu suffisant.



Ce type de matos n’est quasiment jamais présent dans les routeurs grand public, et il faut alors soit posséder un injecteur à part, soit un routeur ou switch qui possède cette technologie.



Le 18/12/2012 à 15h 17







KP2 a écrit :



Ca veut dire quoi ?

Je suis un peu ignare en hard







Afin d’utiliser le POE, coté récepteur il faut avoir un convertisseur (Continu // continu) et un système de protection efficace.



Or pour cela, il faut quasi obligatoirement une bobine (que ce soit sous la forme d’un bobinage autour d’une ferrite ou d’une bobine classique).



Ce genre d’élément se miniaturise mal, et particulièrement se trouve peu en CMS (composant monté en surface, ceux qui ne traverse pas le PCB, il n’ont pas de pattes qui passent par un trou !)



Actuellement, ça ressemble souvent à quelques chose comme çà :



http://shop.kineteka.com/content/images/thumbs/0000783_power_over_ethernet_regul…



Cela reste donc relativement gros, même pour de faible puissance.



Le 18/12/2012 à 15h 09







ed a écrit :



C’est quoi une alimentation POE ?







“Power Over Ethernet”http://en.wikipedia.org/wiki/Power_over_Ethernet



Tirer directement son alimentation d’un câble Ethernet. Possible pour des petites puissances (petits matériels réseau, …) ou même des plus grosses maintenant (50 W je crois). Trés pratique pour les choses qui ont vocation à être connecté au réseau !



Mais à toujours utiliser avec parcimonie ! l’Ethernet, de par la longueur des câbles que permet sa norme peut être une réelle plaie pour les tensions !



On peut par exemple trouver des modèles d’Arduino alimenté par POE.



Le 18/12/2012 à 15h 03







KP2 a écrit :



Je trouve que c’est dommage qu’ils ne proposent pas une version alimentée en POE, ca aurait de la gueule pour l’embarqué !







Cela à été longtemps discuté, mais pour faire une version compatible POE, il aurait fallut revoir tout le PCB. Or l’idée de la fondation était vraiment de chercher à minimiser les coûts.

L’autre problème d’une solution POE et qu’il est quasi impossible de la faire en composant CMS (bobine particulièrement). Or forcement, cela augmente la complexité de fabrication et encore une fois, le prix !



(Mais en effet, ca aurait de la geule !)



Le 18/12/2012 à 14h 55







al_bebert a écrit :



OK merci :)







Après vérification (modèle précis de puce), la puce en question (SMSC LAN9512) est aussi responsable du hub USB : sans cette puce, l’USB est câblé directement sur l’USB du micro-contrôleur. Donc probable qu’il soit aussi impossible de reconnecter l’USB avec le schéma de câblage commun qu’utilise les 2 Raspberry-pi .



Le 18/12/2012 à 14h 51







al_bebert a écrit :



question bête :



ok ils ont viré le port eth et un USB sauf que le routage à l’air d’être le même



des gens ont tenté de recabler les port manquant ??







En réalité, la différence se situe aussi sur l’absence de la puce de SMSC qui est la puce LAN (donc l’ethernet) . Sans cette puce, le routage de la carte ne permet pas le fonctionnement de l’ethernet.



Pour l’USB, en théorie, aucun problème.



Le 18/12/2012 à 14h 23







eglyn a écrit :



Ok, donc on peut installer plus ou moins tout ce qu’on veut:

pour faire un mini NAS avec minidlna par ex et un disque externe pour remplacer le NAS de ma freebox (qui n’est pas detecté par ma TV samsung) ca pourrait le faire donc ?







Aucune limitation non. Par contre, il ne faut pas oublier que on parle ici d’une archi.ARM : tout les paquets “habituels” de Debian ne sont pas encore présent. Mais disons que pour une utilisation classique 90% des choses sont la !



En tout cas, le modèle A va permettre une intégration en embarqué extrêmement pratique : profil plus petit, consommation en forte baisse (l’ethernet ca bouffe !), ca va être un vrai plaisir !



Le 11/12/2012 à 16h 37

Big Blue est toujours à la pointe. Et c’est pas près de s’arrêter.

C’est en effet un grand pas de franchi, et les 90 nm, c’est un exploit technique impressionnant pour une telle puce.

Depuis un certain temps, IBM souhaite repenser les unités de calculs, et je pense que l’interface photon / electron sera de toutes façon l’un des nerfs de la guerre !


Le 08/11/2012 à 15h 11

Après quelques tests la latence semble en effet un des points faibles. Mais pas rédhibitoire : elle disparaît parfois (malgré une composition de groupe transatlantique !).

Sinon une démo technique vraiment impressionnante !


Le 30/10/2012 à 20h 54

Si il vous plait, dites moi que c’est juste une vaste blague !

“La Guerre des étoiles 7 devrait sortir en 2015 et d’autres films devraient continuer la saga et faire prospérer la franchise bien au-delà dans le futur”

<img data-src=" />

“A l’avenir, Disney projette de sortir un nouvel épisode tous les deux ou trois ans.”

mode pirates des caraïbes like …



Le 26/10/2012 à 18h 02

si je peux me permettre :

-60% dans les magasins surcouf (liquidation en magasin uniquement)



Sans doute le seul bon coté de cette fermeture



Le 23/10/2012 à 18h 12







knos a écrit :



Je sais qu’ils ne vendent pas de puce. La fonderie doit couter très chère. Mais un cout de R&d de 7c par compo c’est franchement peut.



Après je n’ai pas dit que leur mages n’étaient pas confortable. Mais je m’attendais plus à un chiffre &gt; à 1\( par puces. Après je ne suis pas economiste et visiblement ca marche pour eux <img data-src=">







La plupart des puces de la famille M par exemple coûte (à raison de 1000 unités, en fin de ligne) moins de 3\)
(les M4, derniers nées de la famille pourtant).

Donc 1$ ce serait un cout énorme pour le fabriquant. De plus, les conditions d’exploitations des droits ARM sont souvent trés complexes, et leur prix seul n’est pas réellement représentatifs.



Le 23/10/2012 à 14h 18



2,2 milliards de puces à la décharge d’ici 3 ans



Les Cortex-M, qui pourtant ne sont les processeurs principaux d’aucun smartphone (ce n’est pas leur rôle), enregistrent la plus forte progression ! Donc ce n’est pas que du smartphone, loin de la ! Les cortex-M sont actuellement un point centrale dans l’embarqué de “contrôle” : fiable, très faible consommation, il présente une puissance de calcul assez unique (pour avoir commencé à toucher au M-4, le DSP permettant de diviser en 4 cycle de moyenne, est particulièrement impressionnant pour les IMU.)

ARM n’est pas près de ralentir je pense, mais le rôle de l’archi. ARM n’est pas d’aller chercher les trés grosses puissances non plus, elle n’est pas pensée pour ca. Mais pour le ratio performance / énergie, la, elle est maitresse