Le problème #1 de la conduite autonome est : qui paie quand ça merde ?
Pour l’instant on dit, c’est une aide donc c’est le conducteur qu est responsable. A mon avis les constructeurs automobiles vont continuer à vouloir que cela comme cela.
Pourtant l’intérêt de la conduite autonome devrait être de prendre en charge les situations pénibles (ex paris Marseille de nuit) ou dangereuses (avec du brouillard ou de la pluie). A ma connaissance, nous n’en sommes pas encore là.
Ps : la leçon de morale sur la vitesse sur la route est insupportable.
Etant donné que les cycles de vie des autos et des smartphones, ne sont pas les mêmes, j’aimerai bien qu’il émerge un vrai standard pour l’affichage déporté sans fils.
Comme les géants de l’électronique n’arrivent pas a se mettre d’accord (cf airplay vs chromecast vs miracast vs Intel WiDi vs …) c’est peut être à l’industrie automobile d’imposer une solution une solution. Sur ce plan le bus CAN est un bon exemple de leur capacité à faire cela.
Pour plus d’explications, je conseille vraiment la lecture de cet article. (surtout pour ceux qui pense que faire de l’Informatique, ce n’est que coder des lignes " />)
Regarde l’autre face de la médaille. Voudrais-tu d’un marché où il n’y aurait QUE microsoft, avec QUE des windows phone (et ni Androïd ni iPhone), QUE des xbox (et ni PS ni Wii), QUE des PC windows (et pas d’iMac) et QUE Internet Explorer (et ni Chrome ni firefox) ? Je suis convaincu que non. Donc il faut de la concurrence. Alors d’accord pour Direct3D pour faire la même chose qu’OpenGL, gérer la 3D. Pour le son, je ne vois pas l’intérêt de l’argument. N’y a-t-il pas de son sous Linux, sur les PS ? Bah si. Il y avait déjà du son sur les PC avant DirectSound, et même, attention scoop, sur les C64, Spectrum, Atari et Amiga (liste non exhaustive). Il ne faut pas croire qu’absence de DirectX implique absence de fonctionnalités.
Regarde maintenant le point de vue du programmeur. Préfère-t-il coder avec DirectX ou OpenGL ? Il faudrait faire un sondage, mais vu qu’OpenGL est encore largement utilisé je doute qu’il soit tant que ça en faveur de DX. D’autre part, le développeur qui veut porter son jeu sur autre chose que XBOX / PC, il est obligé de porter son moteur en OpenGL ; ou alors il peut l’écrire seulement en OpenGL, faire l’impasse sur la XBOX et arroser le marché le plus large sans ré-écriture.
Tu affirmes qu’OpenGL est moins performant que DirectX. C’est d’ailleurs ce qu’a démontré Phoronix avec L4D2. oh, wait…
Pendant ce temps-là il y a encore une palanquée de jeux qui ne sont que DX9 only pour préserver la compatilbilié avec XP, alors que Vista et DX10 sont sortis en 2006 ; et OpenGL tourne sur toutes les plateformes (sauf limitation stupide) sans limitation de version.
Tous les points que tu soulèves sur les logiciels propriétaires sont vrai. L’obsolésence programmée des versions DirectX dans les différentes version de Windows est aussi un vrai PB.
Cela dit, pourquoi les “gros” studios développent plutôt avec DirectX ?
Opt1 : n’importe quoi et je réponds dans l’Opt2 : tous les trucs hors MS utilisent OpenGL, c’est MS qui est enfermé avec son DirectX.
Opt3 : une nouvelle API, non merci on a déjà DirectX (à tuer) et OpenGL (à généraliser). La Steambox ne supporte que NVidia parce que :
AMD les drivers linux sont pourris
INTEL les perfs 3D sont pourries.
Sauf que
1 - DirectX est bien plus performant qu’OpenGL. Il offre la “comptatibilité” avec les Xbox. Il gére le son.
2 - Le driver AMD que j’utilise marche trés bien. Peut être moins bien que sous Windows, mais quand il y aura plus de 2% des utilisateurs, Peut être qu’il feront un vrai éffort.
Après si tu es un adepte du Libre, il y a le driver libre Radeon mais il marche encore moins bien.
3 - Je répète, toutes les consoles ont un proc AMD. Si Mantle se démocratise sur des jeux premium (BF3 est un exemple), supporter cette API peut être un moyen moins couteux pour le support des jeux “premium” (vs Supportter DirectX).
En tout cas, moi je suis intéressé par le steam Controler + un déport video sans fils.
Mais de la à mettre 1000$ dans une machine…
Le
08/01/2014 à
14h
33
Je suis Fan de Linux, et comme beaucoup certain, je n’utilise Windows que pour le jeu. Du coup, je me dit que toute initiative pour améliorer l’offre de jeu sous Linux à encourager.
Cela dit, je ne comprends pas la stratégie de Valve.
Streamer un jeu qui tourne depuis un PC Windows.
C’est une bonne idée, car cela permet de profiter du catalogue PC, mais je ne vois pas trop l’intéret d’acheter une machine 1000\( pour faire cela.
Un pauvre dongle genre Chromcast / Miracast /Widi à 100\) (max) + SteamControler + SteamBig Picture doit être suffisant pour jouer sur TV.
Jouer en natif sous Linux
Opt1 (l’ambitieuse) porter DirectX sous Linux. " />
Opt2 (l’actuelle) se contenter d’OpenGL (et donc limiter le catalogue) " />
Opt3 Miser sur Mantle (la futur nouvelle API de AMD) : Etant donné que toutes les consoles sont sur AMD, cela aurait peut être permis de profiter des développements fait sur console. Du coup, je trouve étrange que les steamBox de ne supporter que Intel et Nvidia.
Décidément, je ne comprends pas trop leur stratégie car si ce n’est pas pour jouer localement, une machine à 1000$ ne sert à rien.
Je pense que le PB de HTC est au niveau de la gamme de produit.
Il se positionne dans le haut de gamme. Et c’est vrai qu’il font de bon produit bien fini.
J’utilise encore aujourd’hui depuis plus de 3 ans mon HTC Desire !
Je ne peux pas dire autant du LG Optimux 2X de ma femme (payé +500€ lors de sa sortie, et qui n’a pas duré 2 ans).
D’ou la question est ce que cela vaut vraiment le coup de mettre plus de 500€ dans un terminal dit “haut de gamme” sans grande certitude sur sa pérennité ?
Résultat des courses
Elle a acheté un Wiko Cink 5, 200€.
J’ai installé Android 4.3 sur mon HTC Desire, 0€
Mes beaux parent ont un Lenovo Chinois (bidouillé en FR) 85€
Les raisons invoquées par les trois actionnaires s’articuleraient essentiellement autour du blocage stratégique. La présence de Bill Gates empêcherait ainsi sérieusement de revoir certains rouages, sans que l’on sache évidemment de quels changements on parle
En cherchant un peu, on trouve la vrai raison des ces grandes manœuvres (départ de Balmer, viré Billou,…)
M\( est une entreprise très rentable avec beaucoup de cash (~56 Millards de \) de trésorerie). Les entrepreneurs veulent dépenser ce cash pour de la croissance externe (rachat de Skype, Nokia,…) et investir pour préparer l’avenir.
Les actionnaires veulent mettre la main sur le pactole.
La logique voulant que puisqu’ils sont certains que kinect sera avec la console, les devs peuvent l’utiliser, ça sera pas pour rien et c’est aussi aux développeurs activision de se sortir les doigts du cul pour l’exploiter.
Ben justement, pour vendre ses licenses (par ex : Skylander), ils préférent avoir une plateforme avec du NFC et un second écrans versus redévelopper pleins de trucs pour exploiter le Kinect.
PS : Attention, pas de " />, selon moi Kinect est une belle techno. Mais pas forcement applicable à tous les jeux. Pour les jeux de dance, c’est top, pour les jeux de foot c’est bof.
" /> Ou alors, il faudrait utiliser la Kinect pour faire réagir la foule en fonction des réactions ceux qui regardent la partie.
Je me pose des questions en terme de stratégie produit.
Les GPU intégrés d’AMD sont vraiment supérieur à ceux d’Intel. Mais les CPU sont tous en retrait, et 32mm c’est rédhibitoire pour les consos et donc l’enveloppe thermique.
Or comme les IGP dIntel HD4000 par ex sont largement suffisant pour toutes les opérations de bureautique ou multimedia (HTPC). Ca n’a donc pas vraiment d’interet.
Pour les jeux, j’imagine qu’il vise les machine compacte (miniITX par ex). Or pour le jeux, ces GPU sont sous-dimentionnés. Et il faut donc passer par une carte graphique dédié.
Par contre niveau TDP, c’est limite du simple au double " />
Aprés il reste le prix, mais quand j’ai cherché à faire un machine en miniITX. Les AMD était moins chers, mais le carte mère était plus chers. Donc au finale, la différence n’était pas énorme.
Je pense vraiment que ce genre de puce peut avoir un vrai succès même pour jouer. Les 3 fabricants de consoles ne s’y sont pas trompés.
S’il arrive améliorer les perf graphique (genre AMD HD8500), et à graver en 22mm comme Intel. La question pourrait se reposer.
C’est un boitier miniITX bien fini. Sa particularité est d’être vertical : Tous les connecteurs se retrouvent sur le haut du boitier. En plus d’être assez pratique, ca fait un peu moins “crado” que pleins de cables de partout.
Il est assez bien ventillé avec un gros ventillo en bas du boitier.
Par contre, pour le lecteur optique, il ne support que des “slot-in”. Neuf c’est hors de prix. Je n’en ai pas mis, mais est ce encore utile ?
Y’a pas l’air d’y avoir Linux, de toutes façon confier ses mots de passes à un logiciel proprio heuuuuu.
Perso j’utilise pass, c’est moins sexy certes, en ligne de commande mais bien pratique et comme ça repose sur des technologies rependues (gpg, git) même sans le logiciel tout reste accessible.
Sinon, Firefox Sync + générateur de mot de passe aléatoire. Les intégriste spécialistes de la sécurité vont peut être hurler, mais c’est mieux que le même mot de passe partout et c’est complétement transparent à l’utilisation.
Ce que tu décris, c’est normalement pas le rôle d’un ingénieur, c’est plutôt le rôle d’un technicien.
C’est pas parce qu’en france on achète des ingé. par brouettes pour en faire des techniciens++ dans les SSII que le but initial n’est pas pour autant totalement dévoyé.
C’est vrai, mais il se trouve que l’informatique (contrairement à d’autre secteurs) un ingénieur conçois et réalise.
brazomyna a écrit :
Un ingénieur c’est pas initialement un expert technique, c’est quelqu’un capable de trouver une solution efficiente et adaptée et à un problème (et son contexte) et d’organiser le travail. C’est donc pas avoir l’expertise technique dans le domaine, mais plutôt trouver les moyens pour répondre à la problématique (quitte à s’auto-former, ou à déléguer à l’expert ou au technicien qui a la connaissane).
Mouai… Les pointeur ce n’est pas non plus “expert”.
brazomyna a écrit :
Tu te trompes sur plusieurs points:
d’une part la qualité du code produit s’est considérablement améliorée ces dernières décennies (notamment de par les outils et méthodes qui ont vu le jour).
Je suis trés séptique. J’ai vu des code de merde qui passent haut la main des outils de qualimétrie statique de code.
brazomyna a écrit :
d’autre part, la complexité des logiciels a crû de façon exponentielle, bien plus vite que les ‘problèmes’.
CQFD - Et selon toi pourquoi ?? Si la complexité des problèmes ne changent pas, mais que la complexité du logiciel augmente, c’est bien qu’il y a eu ajout de complexité accidentelle lors du design et de la réalisation.
brazomyna a écrit :
enfin, la qualité finale d’un logiciel dépend plus de la façon dont est organisée un projet (présence d’une équipe dédiée au tests, pair programming, etc…) que de la qualité isolée (et donc l’expertise technique) de chacun des intervenants.
C’est le rêve ultime de la gestion d’une entreprise : ne pas dépendre des “héros”. Malheureusement, quelques soit les organisations mises en place, au final, ca dépends toujours d’une poignée de gus. A l’extrème, je dirais :
Pas d’organisation avec des héros, ca marche.
Une super organisation avec des mauvais, ca marche pas.
En d’autre terme, les sociétés préfèrent mesurer “pourquoi on perds de l’argent” vs “faire confience et ne pas savoir pourquoi on en gagne”.
brazomyna a écrit :
Ca c’est la conséquence d’une organisation défaillante d’un projet, tendance Shadok. C’est justement de la responsabilité de celui qui le gère, pas de la qualité intrinsèque des gugus qui pissent le code.
pisser du code.. Je n’aime pas trop cette expression. Je pense que c’est d’une autre époque. Une époque ou il y avait des analyse programmer qui étaient des sécrétaire de luxe pour Ingénieur système. Les gens ne savaient à peine ce qu’il codait.
Selon moi, le niveau 1 de l’informatique, c’est de connaitre les concepts de base. Aujourd’hui, je trouve qu’ils ne sont pas bien enseignés.
Ensuite, faire de l’informatique c’est “modéliser le monde au travers d’un langage”. Je pense que cela reste un métier intellectuel qui nécessite des gens bien formés.
Le
25/03/2013 à
12h
27
Je pense qu’il a bien identifié le problème des école d’informatique : l’informatique ne s’apprends plus.Qu’est ce qu’une pile, un tas ? Passage par référence ou par copie ? Ou sont les donnée ? Comment sont elles structurée ?
Toutes ces questions restent autant de mystères pour les élèves. (ne parlons pas de pointeur : c’est compliqué).
J’ai fait une école d’ingénieur en Informatique, Electronique, Automatique. Et j’avais déjà identifié ce pb.
Moins de 10% des stagiaires savent programmer. Les écoles préfèrent s’orienter vers des activitées de “haut niveau” genre gestion de projet. Du coup plus personnes ne maitrise.
Et les indicateurs de non-qualité genre “le client n’est pas content du nouveau firmware de sa box” ne cessent d’augmenter. Il y a de plus en plus de gens qui remonte des indicateurs, et de moins en moins qui sont capables de corriger.
Ce qui répond principalement à un objectif de limiter l’utilisation d’adresses IPv4.
De manière générale, avec tes appareils mobiles, si tu te connectes sur des réseaux publics, l’attaque peut très bien venir du gars qui est connecté au même réseau que toi 20 mètres plus loin.
FAUX !! On a essayé la manip suivante :
Server ssh sur un SmartPhone. Accés impossible depuis le SmartPhone de la même celule.
unicyclon a écrit :
À partir du moment où tu ne contrôles pas le réseau sur lequel tu te connectes, le firewall n’est pas là pour faire joli. Si tu es si concerné que ça par les problématiques de sécurité, je pense que tu devrais le comprendre assez facilement…
FAUX !! S’il n’y a pas de connexions ouvertes par des applis (ou des services) de ton PC, on peut s’en passer. L’intérêt du Firewall est plutôt de filtrer les connexions sortantes créés par un virus, un malware, ou word par ex !
Pour le filtrage des connexion entrantes, avoir la notion public/privé via le NAT est un mécanisme assez sur. Puisqu’on ne connait pas la valeur de l’adresse ciblée.
Enfin, nous sommes assez loin du sujet de départ …
Le
12/12/2012 à
14h
47
Khalev a écrit :
Par contre pour les équipements qui se baladent hors du réseau protégé par le routeur (smartphone, PC portable qui se connecte en wifi publique,…) oui il en faut un sur la machine… comme actuellement en fait. Tu te balades sur un réseau public sans Firewall toi?
Par exemple, sur les smart phone, il n’y a pas de Firewall. Sur mon tel, il faut installer des appli en plus. (et peut être même être root).
Du plus sur la 3G l’IP attribuée n’est pas routable => il y a du NAT CQFD
Khalev a écrit :
En fait tu délimites un “réseau de confiance” sur lequel tu considères que toutes les machines de ce réseau sont “gentilles”, à partir de là tu as juste à protéger le point d’entrée de ce réseau. Chez toi, le “ réseau de confiance” c’est le wifi, CPL, et les câbles qui sortent de ta box et le point d’entrée c’est ton routeur. En dehors, sauf réseau d’entreprise verrouillé et sécurisé (ce n’est le cas que dans très peu d’entreprises), le “réseau de confiance” c’est ton PC/smartphone et le point d’entrée c’est ton PC/smartphone.
Que tu sois en IPv4 ou IPv6 n’y change rien.
Si les IPv6 attribuées par la BOX sont public, alors cela pose PB. D’après ce que je lis, la FreeBox par exemple attribut une IP v6 public !
Je maintients que du point de vue sécurité cela n’est pas mieux qu’un adresse IP privée.
Le
12/12/2012 à
14h
36
unicyclon a écrit :
Heu ?
Un firewall peut se mettre sur le routeur (sur la box, quoi), ou sur une machine en amont du routeur.
C’est vrai que le “PC en amont du routeur” est l’architecture réseau de référence chez la plupart des gens.
unicyclon a écrit :
Personne n’a dit d’en mettre un sur chaque machine connectée au réseau, et personne n’a parlé d’en avoir 50.
Ha bon ?? On ne doit pas lire les mêmes messages.
Le
12/12/2012 à
14h
24
raoudoudou a écrit :
Tu joues sur les mots
L’avantage de le faire via la box, c’est que t’es directement configuré si un pote vient, ou que tu changes d’OS, de machine, etc.
J’suis pas sûr que les box fassent firewall, sinon, c’est effectivement kifkif bourricot
Merci. Enfin un qui comprends.
Pour les autres, passez en IPV6. Mettez des firewall sur tous vos équipements, amusez vous à suivre les mises à jour de tous les firewalls dans un parc de plus en plus hétérogène (smartphone, tablette, pc, boitier multimédia, et demain frigo et cafetier, domotique,…..).
Pour ma part, je pense que le NAT reste une bonne fonctionalité pour la terminaison.
Le
12/12/2012 à
13h
59
psn00ps a écrit :
" />Le NAT n’a jamais été pensé pour offrir de la sécurité mais pour pallier au manque d’adresses IPV4.
C’est un firewall qu’il faut pour de la sécurité et non un manque d’implémentation dans ce mécanisme.
+1000
Certes ce n’est pas la fonction première. Pourtant, même si c’est effet de bord, il offre une sécurité en ne permettant pas aux connexion entrante depuis Internet !
Personnelement, je prèfère une sécurité Hard par un équipement à une sécurité Soft via un programme (qui s’appelle firewall).
Le
12/12/2012 à
13h
53
sky99 a écrit :
Maintenant je ne suis pas un spécialiste du réseau, et j’ai du NAT chez moi.[ …] Donc je reconnais que c’est souvent chiant. Maintenant, du point de vue infrastructure, en quoi est-ce une “ignominie” pour le coeur de réseau?
Parcequ’il faut que les roueurs :
maintiennent des tables d’association IP(reseauA) IP(reseauB)
reconstruisent des trame IP avec ces adresses.
utlisent des resources (CPU, mémoire, …) pour faire cela
Du coup, ca ajoute de la latence et ca consomme. Au niveau de la planète entière ca ne doit pas si négligeable.
Le
12/12/2012 à
13h
43
Ahrkam a écrit :
Et moi (qui suis sur une freebox revolution) et donc a priori en ip V6, on peux voir mon pc sur internet ?
Mon PC et mon NAS sur le LAN et ma freebox fait la jonction avec le WAN…
Je pense que oui. Mais fait le test avec ton adresse Ipv6 de ton PC et un scanner nmap online.
Moi qui croyais que l’IPv6 serait l’occasion d’enfin se débarasser de cette ignominie…
" />
Pour le coeur du réseau, le NAT est certainement un ignominie. Mais le NAT offre un certain niveau de sécurité en permettant qu’un réseau local ne soit pas totalement publié sur Internet.
Personnellement, je ne vois pas du tout d’un bon œil que mon PC soit visible depuis Internet.
Note : C’est d’ailleurs ce qui arrive quand on active IPv6 sur sur Freebox.
27 commentaires
Accident mortel : Tesla hors de cause selon la NHTSA, qui vante le pilote automatique
20/01/2017
Le 21/01/2017 à 01h 38
Le problème #1 de la conduite autonome est : qui paie quand ça merde ?
Pour l’instant on dit, c’est une aide donc c’est le conducteur qu est responsable. A mon avis les constructeurs automobiles vont continuer à vouloir que cela comme cela.
Pourtant l’intérêt de la conduite autonome devrait être de prendre en charge les situations pénibles (ex paris Marseille de nuit) ou dangereuses (avec du brouillard ou de la pluie). A ma connaissance, nous n’en sommes pas encore là.
Ps : la leçon de morale sur la vitesse sur la route est insupportable.
CarPlay : Toyota se désengage et reste sur ses solutions maison
24/02/2015
Le 24/02/2015 à 16h 14
Etant donné que les cycles de vie des autos et des smartphones, ne sont pas les mêmes, j’aimerai bien qu’il émerge un vrai standard pour l’affichage déporté sans fils.
Comme les géants de l’électronique n’arrivent pas a se mettre d’accord (cf airplay vs chromecast vs miracast vs Intel WiDi vs …) c’est peut être à l’industrie automobile d’imposer une solution une solution. Sur ce plan le bus CAN est un bon exemple de leur capacité à faire cela.
[TROLL ON]
Concernant les softs spaghetti Toyota bof bof et les GoTo Apple … ben pareil bof bof
[TROLL OFF]
Quatre applications Android peuvent désormais fonctionner sous Chrome OS
12/09/2014
Le 12/09/2014 à 20h 24
Le C ?
B-)
Voitures sans pilote : la Californie passe un nouveau cap
24/05/2014
Le 24/05/2014 à 15h 13
Des voitures autonomes, pourquoi pas.
Mais les systèmes devenant critique, quelles seront les méthodes pour s’assurer de la fiabilité des systèmes.
Visiblement les constructeurs automobiles n’y arrive pas tout le temps :
lien
Pour plus d’explications, je conseille vraiment la lecture de cet article. (surtout pour ceux qui pense que faire de l’Informatique, ce n’est que coder des lignes " />)
lien
Je me demande seulement si ce genre d’informatique est dans l’ADN d’une boite comme Google.
[edit:Atomusk]Liens corrigés[edit]
Apple officialise CarPlay : contrôle simplifié d’iOS et nombreux partenaires
03/03/2014
Le 03/03/2014 à 15h 21
Je comprends pas l’histoire du connecteur aurait du vacciner l’industrie automobile pour de bon " />
Le seul truc que les gens veulent c’est un écran déporté qui affiche ce qu’il y a sur le smartphone. Le tout basé sur un “vrai” standard.
Les systems mutimedia des voitures ne peuvent pas suivre le rythme des smartphone.
Selon moi, c’est le vrai gagnant/gagnant.
Pour le client : Son system multimedia sera toujours à jours. Il pourra profiter des dernières applis.
Pour le fabriquant : Il pourra toujours faire des applis dédiés pour leurs voitures.
De plus lors de la revente, il n’y aura pas d’obsolescence du multimédia.
[MàJ] Steam Machines : 14 partenaires, celle de Materiel.net à 799,99 €
07/01/2014
Le 10/01/2014 à 13h 25
Le 08/01/2014 à 15h 55
Le 08/01/2014 à 14h 33
Je suis Fan de Linux, et comme beaucoup certain, je n’utilise Windows que pour le jeu. Du coup, je me dit que toute initiative pour améliorer l’offre de jeu sous Linux à encourager.
Cela dit, je ne comprends pas la stratégie de Valve.
Streamer un jeu qui tourne depuis un PC Windows.
C’est une bonne idée, car cela permet de profiter du catalogue PC, mais je ne vois pas trop l’intéret d’acheter une machine 1000\( pour faire cela.
Un pauvre dongle genre Chromcast / Miracast /Widi à 100\) (max) + SteamControler + SteamBig Picture doit être suffisant pour jouer sur TV.
Jouer en natif sous Linux
Décidément, je ne comprends pas trop leur stratégie car si ce n’est pas pour jouer localement, une machine à 1000$ ne sert à rien.
SteamOS mis à jour : les solutions d’AMD et d’Intel mieux supportées
09/01/2014
Le 09/01/2014 à 09h 16
Finances : la descente aux enfers continue pour HTC
07/01/2014
Le 07/01/2014 à 13h 02
Je pense que le PB de HTC est au niveau de la gamme de produit.
Il se positionne dans le haut de gamme. Et c’est vrai qu’il font de bon produit bien fini.
J’utilise encore aujourd’hui depuis plus de 3 ans mon HTC Desire !
Je ne peux pas dire autant du LG Optimux 2X de ma femme (payé +500€ lors de sa sortie, et qui n’a pas duré 2 ans).
D’ou la question est ce que cela vaut vraiment le coup de mettre plus de 500€ dans un terminal dit “haut de gamme” sans grande certitude sur sa pérennité ?
Résultat des courses
Des actionnaires de Microsoft ne veulent plus de Bill Gates
02/10/2013
Le 03/10/2013 à 12h 11
Les raisons invoquées par les trois actionnaires s’articuleraient essentiellement autour du blocage stratégique. La présence de Bill Gates empêcherait ainsi sérieusement de revoir certains rouages, sans que l’on sache évidemment de quels changements on parle
En cherchant un peu, on trouve la vrai raison des ces grandes manœuvres (départ de Balmer, viré Billou,…)
M\( est une entreprise très rentable avec beaucoup de cash (~56 Millards de \) de trésorerie). Les entrepreneurs veulent dépenser ce cash pour de la croissance externe (rachat de Skype, Nokia,…) et investir pour préparer l’avenir.
Les actionnaires veulent mettre la main sur le pactole.
http://obsession.nouvelobs.com/high-tech/20040722.OBS3212/microsoft-75-mds-pour-les-actionnaires.html
Le Figaro
Activision soutient la Wii U et attend de voir l’intérêt de Kinect sur Xbox One
27/06/2013
Le 27/06/2013 à 10h 22
Richland arrive dans les PC de bureau : la gamme, la revue de presse
05/06/2013
Le 05/06/2013 à 09h 06
Je me pose des questions en terme de stratégie produit.
Les GPU intégrés d’AMD sont vraiment supérieur à ceux d’Intel. Mais les CPU sont tous en retrait, et 32mm c’est rédhibitoire pour les consos et donc l’enveloppe thermique.
Or comme les IGP dIntel HD4000 par ex sont largement suffisant pour toutes les opérations de bureautique ou multimedia (HTPC). Ca n’a donc pas vraiment d’interet.
Pour les jeux, j’imagine qu’il vise les machine compacte (miniITX par ex). Or pour le jeux, ces GPU sont sous-dimentionnés. Et il faut donc passer par une carte graphique dédié.
Après niveau CPU, c’est plutôt proche d’un core I3 que d’un core I5 (cf http://www.cpubenchmark.net/high_end_cpus.html ).
Par contre niveau TDP, c’est limite du simple au double " />
Aprés il reste le prix, mais quand j’ai cherché à faire un machine en miniITX. Les AMD était moins chers, mais le carte mère était plus chers. Donc au finale, la différence n’était pas énorme.
Je pense vraiment que ce genre de puce peut avoir un vrai succès même pour jouer. Les 3 fabricants de consoles ne s’y sont pas trompés.
S’il arrive améliorer les perf graphique (genre AMD HD8500), et à graver en 22mm comme Intel. La question pourrait se reposer.
Oracle veut un copyright pour ses API Java, des développeurs se mobilisent
03/06/2013
Le 03/06/2013 à 12h 05
Brevets : Kim Dotcom revendique la paternité de la double authentification
23/05/2013
Le 23/05/2013 à 09h 53
C’est magnifique " />
Ca montre toute l’absurdité de ces brevets :
Un mec pense a un truc dans son coin mais n’en fait rien. D’autre ont la même idée, et la réalise.
Le premier arrive comme une fleure et dit c’est à moi.
A part enrichir les avocats, je ne vois pas trop l’intéret (même pour les grand groupe).
Le recap’ des tests : quel boîtier choisir pour son PC ?
26/04/2013
Le 28/04/2013 à 12h 44
J’ai pris un Silverstone FT03 mini.
C’est un boitier miniITX bien fini. Sa particularité est d’être vertical : Tous les connecteurs se retrouvent sur le haut du boitier. En plus d’être assez pratique, ca fait un peu moins “crado” que pleins de cables de partout.
Il est assez bien ventillé avec un gros ventillo en bas du boitier.
Par contre, pour le lecteur optique, il ne support que des “slot-in”. Neuf c’est hors de prix. Je n’en ai pas mis, mais est ce encore utile ?
Google rejoint l’alliance FIDO pour en finir avec les mots de passe
24/04/2013
Le 24/04/2013 à 13h 08
[MàJ] la « nouvelle initiative » de Xavier Niel, une école de programmation ?
25/03/2013
Le 25/03/2013 à 13h 34
Le 25/03/2013 à 12h 27
Je pense qu’il a bien identifié le problème des école d’informatique : l’informatique ne s’apprends plus.Qu’est ce qu’une pile, un tas ? Passage par référence ou par copie ? Ou sont les donnée ? Comment sont elles structurée ?
Toutes ces questions restent autant de mystères pour les élèves. (ne parlons pas de pointeur : c’est compliqué).
J’ai fait une école d’ingénieur en Informatique, Electronique, Automatique. Et j’avais déjà identifié ce pb.
Moins de 10% des stagiaires savent programmer. Les écoles préfèrent s’orienter vers des activitées de “haut niveau” genre gestion de projet. Du coup plus personnes ne maitrise.
Et les indicateurs de non-qualité genre “le client n’est pas content du nouveau firmware de sa box” ne cessent d’augmenter. Il y a de plus en plus de gens qui remonte des indicateurs, et de moins en moins qui sont capables de corriger.
Le noyau Linux 3.7 fait un pas important vers le support générique d’ARM
12/12/2012
Le 12/12/2012 à 15h 17
Le 12/12/2012 à 14h 47
Le 12/12/2012 à 14h 36
Le 12/12/2012 à 14h 24
Le 12/12/2012 à 13h 59
Le 12/12/2012 à 13h 53
Le 12/12/2012 à 13h 43
Le 12/12/2012 à 12h 46