votre avatar

sky99

est avec nous depuis le 13 septembre 2002 ❤️

Bio

Oups.
On dirait que quelqu'un ici aime garder ses petits secrets, comme si de par hasard il y avait quelque chose à cacher...
Désolé, ô lectrice de passage, cher lecteur égaré, pas de révélation sensationnelle pour le moment sur ce profil.
Repassez plus tard ?

248 commentaires

Revue de presse : Cities Skylines est-il le SimCity que l'on attendait ?

Le 13/03/2015 à 21h 25

J’ai le jeu, j’ai pas encore atteint le max en taille, mais j’ai une bonne ville, sur plein de carrés, et ça ne rame pas du tout.
Pour moi c’est du tout bon, car la lenteur des précédents est ce qui m’a démotivé. Mais j’ai une grosse machine (6 coeurs, 16Go de ram, SSD), mais ça ramait quand même sur les anciens, alors que là non :)


Revue de presse : Homeworld Remastered Collection, vers l'infini et au-delà

Le 10/03/2015 à 12h 42

J’ai refini HW1 edition remastered, ça reste un excellent jeu, l’histoire est super, les missions bien faite, l’ambiance unique.
Quelques défauts, avec une difficulté mal dosée, et des pics un peu abusés, mais c’était déjà le cas dans l’original :)
Comme l’ont dit certains, la capture de vaisseaux est la solution à tout :)
PS : on peut commencer dès la première mission, en capturant des corvettes ennemies…

Pour la dernière mission, j’avais plein de destroyers, au moins 4 croiseurs lourds, et une bonne cinquantaine de frégates ioniques, dont seulement 3 frégates ioniques fabriquées par moi ^^

Par contre les chasseurs et bombardiers sont moins bons qu’avant, ils ne tiennent pas leurs formations, du coup la formation sphère ne fonctionne plus, et du coup ça marche nettement moins bien. S’ils corrigent ça, on retrouvera la puissance tactique des vaisseaux légers, qui sont peu utiles pour le moment :)

En tous cas, super histoire et narration, c’est très beau, le gameplay est sympa également, bref, ça reste un grand jeu, et remastering est réellement très joli!


Z97 et X99 Extreme6/3.1 : l'USB 3.1 réversible débarque chez ASRock

Le 23/02/2015 à 15h 48

Il y a aussi un problème de taille de fils. Pour faire passer un certain courant, il faut une section de fil minimale, donc sans augmenter la taille des conducteurs, la seule solution c’est de monter (dans une certaine mesure) la tension… Or, ici on est en 5V, donc d’office c’est cuit!
Après il faut voir dans quelle mesure on accepte d’avoir de “gros” fils…


Toshiba MD : des disques durs de 4 et 5 To à 7200 tpm, dès 199 €

Le 23/02/2015 à 15h 25

De toutes façons, faut bien les faire tourner de temps en temps, sinon les données finissent par être perdues.
Je me demande s’il n’y a pas moyen d’avoir un disque alimenté sur une machine, mais en mode “ne fais rien”, sauf si on lui envoie une commande spécifique. Donc plateaux stoppés, tête de lecture parquée, etc. Et par exemple une fois par mois on le fait tourner, ou quelque chose du genre….


Raspberry Pi 2 : une version plus rapide à 35 $, Ubuntu et Windows 10 se préparent

Le 03/02/2015 à 05h 08

Une bien belle surprise!
Je n’attendais pas cette nouvelle version, ils avaient annoncé pas de nouvelle version avant longtemps!
Donc c’est une chouette surprise.
D’un autre côté, il eut été chouette de le savoir avant!
J’ai je ne sais pas combien de Rpi B (genre 6 ou +), 2 A, 3 B+, 2A+, et les modèles + je viens de les commander!
Autant je ne regrette pas les A+ (plus petits, plus faible conso, pas le même usage -en embarqué, sur batterie pour moi-), autant les B+ qui rendaient les B sans grand intérêt se voient dépassés par les pi2B!

D’un autre côté, si le pi2 n’était pas sorti, j’aurais utilisé mes B+ comme il se doit; je vais juste commander des Pi2 pour certaines applis plus lourdes (OpenCV, reco faciale, etc).

Je serais curieux d’avoir plus d’infos sur la conso, l’archi, etc, car la puissance supérieure est intéréssante, mais il faut voir si il y a une contrepartie en conso, alim, etc… J’ai un projet de console portable en cours de développement (émulateurs), à voir si le pi2 n’ouvrira pas de nouvelles possibilités d’émulation (PS1 plus solide, PS2 possible,  N64?), mais il faut voir l’autonomie en contrepartie :)

En tous cas, sacré nouvelle, qui sort de nulle part!
Je me demande comment ils parviennent à garder leurs trucs secrets à ce point!


The Witcher 3 : les DLC gratuits ne sont qu'une stratégie

Le 29/01/2015 à 20h 24






Charly32 a écrit :

Non, je suis contre les DLC (payants). Ces derniers n’apportent finalement que du contenu que l’on était en droit d’attendre dans la version boite du jeu (en règle générale).
Un DLC qui te file un pack d’arme et une map et qu’on te vend pour 25% du prix du jeu, stop.

En revanche, un add-on/extension t’apporte de nouvelle quête, peut modifier en profondeur le gameplay, apporte parfois des nouveauté techniques (moteur graphique dépoussiéré etc).

 Pour faire simple, ma vision c’est :

Modèle Diablo 3 => OK
Modèle Battlefield = > KO
 


ça depend, en DLC payant, y’a borderlands/borderlands 2 qui a bien fait les choses.
De nouvelles zones immenses, de nouvelles classes, des paquets d’heures de jeu en plus, et ce
sans rien enlever au cœur du jeu. BL1 et 2 sont de très bons jeux “de base”, et les DLC ne font
vraiment pas “arrachés du jeu d’origine pour les vendre plus tard”. En plus on en a pour son fric,
des DLC de BL2 sont plus longs que des jeux entiers. Après, ils font AUSSI des DLC peu utiles (une skin,
ou une connerie du genre) et payants, mais bon, ça on ne l’achète pas, ou alors inclus dans un pack game of the year :)

Bref, je suis d’accord, bien souvent les DLC c’est du foutage de gueule, mais ça peut être bien fait, et en fait revenir aux “extensions” des jeux d’avant. Et dans ce contexte, qu’importe le nom (DLC, extension, add-on…), tant que c’est un produit valable. Dans le cas de CDProjekt, qui peut dire qu’un des Witcher était un jeu pourri? Qui s’imagine que le 3 sera bidon? De même, je doute fortement qu’ils aient viré des trucs du jeu pour les garder pour les DLC, et surtout on peut s’attendre à ce que ces DLC ne changent pas grand chose au jeu. Du coup, y’a peu de chances qu’on se fasse avoir par un DLC qui sort X mois après et change radicalement le jeu au point qu’il faille le recommencer, ou qu’on arrive dans une zone ou on sent qu’il manque des bouts à venir dans des DLC (comme c’est semble il le cas dans Destiny par exemple).



Intel évoque sa NAND 3D sur 32 couches et annonce des puces de 256 Gb

Le 28/11/2014 à 06h 33






patos a écrit :

Tu n’as jamais recherché le même disque dur au firmware près? Fait de l’échange de contrôleur, voir de plateau? Mis un disque dur au freezer pendant une journée pour qu’il soit lisible pendant 20mn le soir, et que tu récupères vite les données importantes? Compensé la faiblesse des têtes par l’orientation du disque? Moi si. Des disques durs où rien n’a été récupéré, j’en ai eu extrêmement peu. Des SSDs qui sont décédés sans crier gare, en moins d’une heure, j’en ai eu quasiment 10% pour l’instant après 3 ans d’installation, et j’en installe / fait acheter une pléthore.
 Cependant, c’est peu à côté du gain de performance et j’ai toujours conseillé aux gens de faire des sauvegardes, au moins pour les documents importants et les photos de familles.

Après, si tu veux faire de la capacité, je t’invite à utiliser du Raid-6 par contrôleur mais avec un spare de disponible. Si tu veux de la sécurité et de la performance, il faut faire du Raid à allocation dynamique (Type Storage Spaces sous Windows 8+/2012+) car il y a de gros problèmes de nivellement d’usure en Raid-6.


Intéréssant, le coup du congélo, je testerai, de toutes façons le disque est mort :)
Pour le raid, je préfère rester au mirroring, car les vrais raid nécéssitent du calcul pour gérer le bouzin.
Pour moi l’idée c’est que je puisse enlever le disque de backup a tout moment, et le lire ailleurs.
D’ailleurs je ne fais même pas de raid, mais de la synchro. C’est plus lent, mais c’est solide :)
L’idée c’est que mon nas fait ses bidules, et j’ai fabriqué une seconde boite a coté, contenant les HDD en USB3. Du coup je duplique du NAS vers la grappe en USB3.
Si je dois sortir un disque, je prends l’USB3, et je peux copier des trucs vers une autre destination.

Je reconnais que du vrai raid serait plus efficace en matière d’efficacité, mais je suis uniquement préocupé par la pérennité des données :)

Les contrôleurs raid coûtent cher, et les modes de raid avancé posent divers problèmes comme ce dont je parle plus haut qui sont incompatibles avec mon usage.
Enfin, le truc sous Win8 , ça n’ira pas, car mon nas est sous linux :)

Du coup je suis supris, pourquoi W8 pour un serveur? il y a un intérêt particulier?
Au passage, le contrôleur, c’est chouette, mais pourquoi pas simplement du raid logiciel? avec un petit CPU desktop, y’a de quoi non?



Le 25/11/2014 à 00h 42






patos a écrit :

Ben le jour où tu n’aura aucune solution de repli sur un SSD pour en récupérer les données, tu comprendras mon point de vue. Après, je ne dis pas que les HDDs sont une valeur sûre hein…. Il y a toujours des pannes et problèmes. Mais moins qu’avec les SSDs qui sont bien plus susceptibles… Vraiment plus…
 
De plus, un HDD, les données sont gravées, et il est assez aisé d’en extraire les données, même si le HDD n’a plus de tête etc…


“aisé” d’extraire les données d’un HDD mort?
Oui, on peut potentiellement, en passant par une société qui va facturer super cher…
Sinon c’est mort…
Généralement pour les données persos en général quand le disque meurt et qu’on a pas de backup, c’est mort, c’est tout… Si j’avais 500€ a mettre dans une récup de données, j’aurais acheté 500€ de disques pour faire des backups plutôt :)

De plus, qui dit qu’on ne peut pas lire les données d’un SSD mort? les boites de recovery doivent commencer à savoir faire ça, certaines proposaient deja il y a un moment de récuperer des données de cartes SD mortes…

En tous cas sur mes HDD morts, bah je n’ai eu aucune solution accessible… Et je parle de disques qui fonctionnaient parfaitement, se sont mis à faire “clac clac” d’un coup, et illisibles depuis…

Je pense que le pire à craindre pour un SSD c’est le bug firmware qui efface tout. Mais en théorie c’est possible aussi pour les HDD…

Quand le SSD va commencer à lacher, des cellules deviendront impossibles à modifier, et les données lisibles…

Pour l’instant sur 5 SSD, je n’ai jamais rien perdu, contre plusieurs HDD morts dans le même intervalle…

A tel point que ma solution de stockage avec les HDD, c’est de doubler chaque disque!
C’est quand même un avantage du HDD : pas cher donc on peut faire des backups.
Mais à part ça c’est quand même gros, lent, peu fiable, sensible à la chaleur, aux chocs, peut faire du bruit…

J’attends avec impatience que les SSD passent devant les HDD au niveau de la capa!
et ça évolue vite, il y a pas si longtemps, 1To de SSD c’était de l’ordre de l’imaginaire, aujourd’hui,
c’est presque “abordable”…



Le 24/11/2014 à 14h 37






DayWalker a écrit :

Les prix baissent…

OK, mon crucial M4 128 Go m’a couté une “blinde” à l’époque (il a 3 ans et quelques), mais désormais, on peut facilement avoir 512 Go de SSD, et d’ici un an ou deux, avec la chute des prix, il sera facilement possible (moyennant 3-400 €) de remplacer des disques mécaniques de 1 à 2To… La 3D V nand, c’est un moyen “simple” de faire des puces “pas trop cher” car l’information (ie, les transistors) est stockée en 3D et non plus en 2D.


Salut!
ta remarque sur les SSD de 1-2To est DEJA vraie : 
  le samsung 840 evo de 1To est à 384€ sur ldlc :http://www.ldlc.com/fiche/PB00151462.html
Et je suppose qu’on peut trouver moins cher que ldlc à droite à gauche :)

Par contre je n’ai pas encore vu de SSD de 2To, mais on peut s’attendre à bien moins cher avec de nouvelles technos!
Et si des disques encore plus gros sortent, les moins gros baisseront sans doute en prix…
A moins de vouloir faire du stockage de masse sur SSD, avec 512, voire 1To, y’a de quoi largement stocker son OS et les applis les plus gourmandes…
Autre intérêt : stocker ses données importantes (donc pas les films, vos documents, photos, etc…) pas pour la vitesse, mais pour la fiabilité…



Le Raspberry Pi modèle A+ arrive en boutique pour 24,49 euros

Le 24/11/2014 à 17h 05






Ricard a écrit :

Moi j’ai un peu de mal avec la notion de 20$ qui deviennent 25€. Pas de port réseau ok, mais un seul port USB….
Faut pas déconner. Pou ce prix là, je préfère un Arietta G25.


Pas forcément le même usage…
Le raspi fonctionne “out of the box”, enfin presque, en ajoutant la carte SD. Ta solution est plus adapté pour les gens qui n’ont pas peur de bidouiller…

D’autre part, le pi est devenu un quasi “standard”, et de fait on trouve plein de ressources.
A mon sens c’est une solution simple, efficace et rapide à mettre en place!

Pour le 1 seul port USB, oui, ils auraient pu en mettre 2. mais du coup ce serait plus lourd. Du coup c’est pas plus mal comme ça ou la carte est minimale, le moins cher, le moins lourd et la plus faible conso, ce qui la rend plus adapté à des usages embarqués, car c’est chiant de dé-souder les ports USB, alors que rajouter un hub est facile.

A mon sens, le pi à prendre c’est le B+, par défaut. Si on prend le A+ c’est qu’on a une bonne raison, soit la conso, l’encombrement, ou encore le coût…

Pour ma part, je vais prendre des A+ pour toutes ces raisons à la fois :
->petit, léger et faible conso : parfait pour mes robots;
->moins cher :parfait pour mes noeuds domotique, avec une clé wifi sur chacun (bien sur pas de clavier/ecran/souris)

Bref, le A+ à tout à fait sa place, d’autant que comme c’est du Pi, rien n’empêche de développer sur un B+, avec clavier écran souris, et d’amener la carte SD sur un A+ après :)
Maintenant, en fouillant, il existe d’autres solutions.

EN plus puissant et plus cher, mais au format raspi B, il y a le banana pi par ex;
en plus compact, le odroid-W, compatible en software avec le pi classique,
et bien d’autres…


Sinon, sur une question que j’ai vue plus haut : non, il n’y aura pas de modèle C. Le raspi avec son SOC ne peut avoir plus de 512mo de ram, sinon il faut changer de SOC. Ils ne veulent pas faire ça. D’autre part, ils ont annoncé qu’ils ne feront pas d’autres cartes pour le moment, mais qu’ils se concentrent sur les périphériques et l’écosystème. Par ex, l’écran du pi devrait arriver bientôt (il utilisera la seconde nappe présente sur la carte, qui ressemble à celle du module caméra).
Pour le raspi “2”, ils ont dit que ce ne serait pas avant 20172018. Et même là, je suppose qu’ils continueront à faire les versions actuelles, car elles ont leur place :)



Le 24/11/2014 à 16h 48






Twiz a écrit :

De toute façon vu la taille de l’engin, la différence de conso n’est pas énorme ?


Si, c’est significatif

  : en idle, le A+ consomme 100mA, contre 140 pour le A, 200 pour le B+ et 360 pour le B.
Dans la plupart des applications classiques ça ne changera rien, mais en embarqué (robotique, système mobile, système alimenté par paneaux solaires, etc), ça fait un monde de difference.

Exemple : si j’ajoute le module caméra, ça donne en conso 230mA pendant le “filmage”, contre 320 et 330 pour le A et le B+ et 480mA pour le B.
Du coup avec une batterie LiIon 4.2V 6600 mAh,  ça fait 3.76.6=24Wh, le pi consomme 50.23 1.15W en filmage, donc en théorie 20h d’autonomie en filmant en continu sur le A+. avec le A et le B+, ça fait environ 15h. Enfin avec le B classique, ça fait juste 10h. Donc ça fait quand même une sacré différence en pratique!

Et en idle du coup avec la même batterie ça fait jusqu’à 50h d’autonomie…
Si je prends une photo par seconde, pendant une seconde, ça donne en pratique 102mA de conso, donc on peut faire sur une charge de batterie près de 47 h de timelapse!

En pratique, bien sur, on enlèvera bien 20% à cause des pertes dues aux convertisseurs pour passer de la tension de la batterie au 5V, et l’efficacité pratique de la batterie, mais le résultat est quand même là!
 

De plus, il est plus compact et léger, donc pour les drones etc c’est mieux :)

Sinon sur le prix, c’est un peu cher 25€, moi je les commanderai ailleurs, il est environ a 17€ FDP out.
Sur RS, les frais de port étaient de 6€ la derniere fois que j’ai commandé, que ce soit pour un ou 10, donc je ferai une commande groupée :)

Vu son prix, pour divers montages, ça devient plus intéréssant qu’un Arduino (même si je peux me faire un arduino pour 5€, mais là, c’est tout fait, et je peux ajouter une clé wifi pour pas cher, alors que sur arduino ça revient bien plus cher!)



Revue de presse : Dragon Age Inquisition passe son interrogatoire

Le 13/11/2014 à 05h 34






Kernunos a écrit :

Ce que je veux surtout dire c’est que pour Bioware l’abandon des franchise AD&D et Star War a été synonyme de baisse de qualité. Mass effect était sympa mais je révérais un titre avec la même qualité de réalisation mais dans l’univers de Star War. l’univers de Mass effect sans être dépourvu que qualité est très loin de la richesse de Star War je crois que personne ne le contestera.


Je trouve l’univers de mass effect 1000 fois plus intéréssant que celui de Star wars…
SW, c’est sympa, mais c’est pas de la SF, plutôt de la fantasy loufoque dans le futur.
Au contraire, Mass effect, c’est de la SF, tout est cohérent, expliqué de façon convainquante, etc…
KOTOR reste malgré tout l’un des meilleurs RPG de tous les temps à mes yeux, mais je n’imagine
même pas ce que ça aurait pu donner dans un univers plus serieux et mature comme celui de M.E.
Et pour revenir sur la “richesse” de star wars, bah il y a plein de trucs hétéroclites pris à droite à gauche, mais ça fait plus un bric à brac qu’un univers riche et cohérent. Faut se rappeller quand même de star wars, avec les ewoks qui défoncent des soldats surentrainés, des wookies qui s’ils nous ont amusés sont objectivement assez grotesques, etc etc…
En plus si je compare les films star wars et les jeux mass effect, eh bien l’univers est bien plus profond dans mass effect, plus développé, détaillé. Rien que l’histoire de la flotte quarienne pourrait faire une série/film/jeu, idem pour les gros lezards agressifs dont j’ai oublié le nom.
Maintenant, peut être que l’univers étendu de star wars apporte des choses en plus, mais d’un autre coté, les possesseurs de la licence annoncent chier dessus …



Mozilla a de grandes ambitions pour son Firefox OS sur Raspberry Pi

Le 28/10/2014 à 12h 31






Tarpan a écrit :

@crocodule

Oui mais l’évolution sera inévitable et il y aura bien une nouvelle version du raspi plus puissante… on va bientôt être à 3 ans d’âge pour la base de la config, il y aurait déjà de quoi proposer au minimum 2 voire 3 fois plus puisant pour la même conso, et avec 1Go de RAM c’est parti pour plusieurs années de “suffisance” pour la plupart des applications (notamment video hd indépendamment du codec etc.) .
A moins qu’ils fassent trainer pour attendre un passage direct au 64bit… mais je pense qu’on verra plutôt une version intermédiaire pour patienter qques années.





crocodudule a écrit :

Si tu pousses un peu l’overclock d’un PI B ou B+ (sans même toucher au voltage) il passe sur l’essentiel sans problème pour afficher des vidéos même HD (attention au codec utilisé cependant).

Plus que la puissance de la bête, c’est la quantité de ram le premier élément qui limite la machine.

 Une version 1giga  serait effectivement une bonne chose sans tomber dans la course à la puissance et à la démultiplication des versions (chose qu’il faut absolument éviter).

 


Malheureusement, il ne faut pas s’attendre à un raspi plus puissant pour le moment. Les responsables de la fondation l’ont annoncé. Les projets actuels sont l’écran tactile, et une version A+.
En revanche, il n’est pas possible d’avoir un raspi avec plus de 512, car c’est le maximum supporté par le SOC.
La seule solution serait une nouvelle carte, dans ce cas incompatible avec l’ancienne. Or, la volonté de la fondation est de préserver la compatibilité. C’est le cas avec le A, B, B+, et il en sera sans doute de même avec le A+.

D’autre part, il faut bien prendre conscience que le raspi à une visée pédagogique en maintenant un coût faible. La fondation raspi n’est pas une organisation à but lucratif, et donc malgré les ventes importantes,  ça ne devrait pas infléchir leur politique/ligne de conduite.

A mon avis, on peut s’attendre à quelques années encore avant un “raspi 2.0”, et ce n’est pas plus mal : il y a de nombreuses tâches que le raspi fait parfaitement, et l’écosystème matériel commence a se développer très sérieusement, avec les “HAT” (équivalent des shields arduino), il serait dommage de casser cet élan en recommençant tout!

Pour des machines plus puissantes, il y a des alternatives disponibles, et si on veut le même format, il y a par exemple le banana pi (même format, dual coeur, 1Go de ram, 1 sata, boutons power et reset, recepteur IR, lan gigabit, etc pour environ 60$), mais beaucoup d’autres existent!



[MàJ] Anonabox : polémique autour du routeur Tor lancé sur Kickstarter

Le 15/10/2014 à 18h 39

J’ai lu les trucs sur reddit, et les craintes des gens semblent avérées.
En effet, pour un projet open source ET open hardware (le plus important :
le logiciel on peut le faire avec openwrt ou dd-wrt, ou encore tomato, qui
sont déjà open source, et suivis par plein de libristes. C’est en plus surement
ce qu’utilise le projet. Alors qu’un routeur avec du open hardware, c’est
plus dur à trouver!), on ne trouve ni les sources, ni les schémas électroniques.

Le développeur se justifie de façon très étrange, évasive, etc (bientôt, ou j’ai
pas encore eu le temps, et pour le schéma électronique, l’excuse, c’est qu’il
n’a pas réussi à exporter une image depuis le logiciel qui permet de voir le pcb…
impression écran serait trop difficile pour un dev?)

Enfin, des internautes lui ont demandé de voir l’intérieur, ce à quoi il a répondu ceci:
http://anonabox.com/img/2.jpg
Donc une photo du circuit. Le problème, c’est qu’il existe déja le WT3020,
une copie chinoise d’un routeur de poche populaire, apparemment depuis
plus longtemps que le kickstarter, et le fabricant à d’autres versions plus
anciennes depuis longtemps. Mais mieux, voici l’image d’une pub pour
le routeur chinois : 
https://pbs.twimg.com/media/Bz9Ij_nCIAA22xf.jpg
On peut voir exactement le même PCB. Le même layout.
Les seules différences viennent de la quantité de mémoire flash.
Quelqu’un aurait contacté le fournisseur sur aliexpress, et celui ci
dit qu’on peut demander une version avec ou sans usb, avec 4, 8 ou 16mb de flash, etc.

Mais mieux, c’est l’inscription WT3020-v1.0 qui apparaît sur le PCB que les gars prétendent
avoir développé. SI c’est le leur, pourquoi le nom d’un produit qui serait une copie apparait
dessus? Si c’était marqué anonabox, et que le chinois écrivait la même chose, ok, mais là,
c’est le nom d’un produit en vente depuis un certain temps, et qu’ils n’ont jamais mentionné.

Au passage le boitier aussi est exactement le même, forme, couleurs, il ne manque que le logo. Mais le fournisseur peut l’enlever si on le souhaite.

Questionné sur ce sujet, le type répond à coté.

 
En bref : a éviter à mon avis, ils se contentent de prendre un routeur chinois à 20\( :
http://www.aliexpress.com/item/New-2014-300Mbps-WT3020A-Multiprotocol-Portable-M...
sur lequel ils rajoutent openwrt. Dans tous les cas, version 8 ou 16 mo, les deux sont compatibles avec openwrt (il faut 4Mo de flash). Par la suite il suffit de rajouter le package tor. apparement, sur la version 4Mo, c'est plus dur, il faut faire deux trois modifs, sur la version 8Mo c'est trivial.
Du coup, si vous voulez un machin comme ça, prenez le sur aliexpress, même si ça prend 2 mois ça ira plus vite que le temps que le kickstarter se finisse et que le gars accède aux commandes. De plus ce sera 20\)
au lieu de 55.

Autre solution, qui fonctionne, basée sur un pi : le onionpi :&nbsphttps://learn.adafruit.com/onion-pi/overview
Plus cher, mais le cpu est plus puissant, et on peut faire plus de choses. D’autre part, le matériel n’est pas totalement open hardware, mais les specs ont été sorties, le layout est disponible, le seul problème reste sur le GPU, mais broadcom commence a donner de plus en plus de specs, ce qui fait qu’on a maintenant des pilotes totalement open source sans le moindre bout de code compilé dont on connait pas le contenu.
 
 
 


Avec Broadwell, Intel veut réduire les PCB et le volume des Mini PC

Le 15/09/2014 à 23h 25






RedWave a écrit :

Avec, comme super avantage, du “90% soldered”. Miam! Après, il ne faut pas se leurer, les ordinateurs sont de plus en plus jetables, parce qu’ayant une durée de vie de 4 ans et donc rarement compatibles avec les évolutions suivantes pour le processeur, mais le reste l’est généralement.
Donc :-(



D’un coté, je suis bien d’accord avec toi, le fait de ne pas pouvoir faire évoluer est chiant, idem pour la réparation. D’un autre coté, tant qu’on conserve le système classique ou on peut assembler, ça me semble un compromis intéréssant :
si on veut du super compact, ça existe…
Dernier point, le “tout soudé” est monobloc, et du coup moins de défaillances au niveau des contacts… par rapport a 50 sockets qui déconnent. Maintenant, si UN truc déconne, c’est tout à changer, et là, c’est moins drole. Mais ça fait sens dans des bidules low cost, à mes yeux… Ou alors plus haut de gamme, mais avec garantie!



Radeon R9 285 : AMD pourrait la dévoiler demain et la lancer le 2 septembre

Le 23/08/2014 à 14h 03






pyrignis a écrit :

Tant que tu branche pas ton PC gamer dirrectement à ta Télé je vois pas pourquoi le HDMI, qui est une connectique télé, devrais être un critère. La connectique pour moniteur, à savoir le Display Port, plus performant et sans royalités, est géré sans problème.



C’est quand même bien pratique le HDMI, un cable qui fait tout.
De plus, le HDMI y’en a partout, alors que le displayport non…
Enfin, maintenant, une télé ou un écran PC, la différence n’est pas si marquée…



DAB : une arnaque à la carte bancaire facilitée par l’impression 3D

Le 23/08/2014 à 13h 41






Kikilancelot a écrit :

Je voudrais bien voir l’imprimante 3D en question parce que quand on voit la qualité de celle pour particulier, qualité c’est pas encore ça. Ça se remarque au premier coup d’œil qu’il y a un truc qui cloche. Surtout quand on voit la taille de la façade d’un DAB et des dimension utiles d’une de ces imprimantes 3D. Bref, il à du plumer des gens qui ne font pas gaffe au façade des DAB.


Oui enfin il suffit de masquer son visage et c’est bon hein. J’imagine qu’il a été assez intelligent pour prendre la peine de le masquer pour la caméra, mais il a été assez con pour mettre une carte à son nom dedans.


J’ai une imprimante 3D pour particuliers (printrbot simple metal), et on peut tout à fait avoir des impressions très précises. Bien sur, pas aussi précise que du plasitique moulé par injection, mais tout de même.

Second point, il est possible de faire un super fini, notamment avec l’ABS : en effet, celui ci est soluble à l’acétone. La technique est alors d’utiliser des vapeurs d’acétone pour lisser le tout.

En plus ça se ponce, peint, etc…
Si c’est bien fait, ce sera donc difficilement détectable!



Radeon R7 : AMD dévoile ses SSD pour les joueurs, à partir de 0,41 € par Go

Le 19/08/2014 à 16h 31






Azax a écrit :

Hmm je ne m’y connais qu’un peu. J’ai essayé de bien comprendre l’article mais concrètement qu’est-ce qu’ils ont de différents (par rapport au autres mentionner par sky99 par exemple) ces SSD pour gamer (mise à part le nom hein )) ).
Dans tous les cas les SSD sont fait pour y installer nos applications non ? Appli de dev/photo/jeux/whatever ?


A mon avis, c’est juste du marketting.
Si on part du principe qu’un joueur veut une latence faible sur les chargements, et un bon débit, on a exactement les mêmes problématiques que pour les autres SSD, ou on veut la même chose.
De toutes façons, c’est pas avec leur firmware qu’ils vont révolutionner quoi que ce soit, alors que ça fait des années que les fabricants optimisent autant que possible le matériel et les firmwares :)



Le 19/08/2014 à 13h 57






sioowan a écrit :

[quote:5129368:Etre_Libre]

Attention ça reste du OCZ… avec un taux de panne souvent élevé en SSD.



Le rachat Toshiba a peut être réduit la fréquence de pannes.[/quote]
pour un disque dur, on a pas trop envie d’essayer le “peut-être”…

En plus, fabricant de SSD à très mauvaise réputation + boite qui n’a jamais vendu de SSD(je parle de AMD, pas de Toshiba… même si toshiba c’est pas non plus LE spécialiste du SSD ^^), ça ne donne pas spécialement envie de prendre le risque.

En plus, pourquoi prendre ça plutôt qu’un Samsung ou un Crucial, qui sont réputés, et dont certains modèles sont au même prix?



Arklay : une série basée sur l'univers de Resident Evil attendue pour 2015

Le 11/08/2014 à 16h 10






darkbeast a écrit :

comme les films issus du même jeu quoi


Dans la meme veine, ils pourraient également s’abstenir de faire des bandes annonces pour les jeux sortis après le 4, ou mieux, arrêter de les faire :p



Ondes électromagnétiques : une élue écolo s'inquiète des objets connectés

Le 27/07/2014 à 10h 55






lol51 a écrit :




Bonjour,
Je ne prétends pas avoir la réponse sur l’innocuité ou non des ondes GSM.
Toutefois, tu affirmes qu’il a été démontré de façon indubitable que les téléphones mobiles, les antennes GSM et les réseaux de ce types sont non toxiques.

Tu cites par exemple science et vie, ou des média de ce genre.
Je n’affirmerai pas qu’il y a une toxicité, mais en faisant des recherches sur une base de données scientifique, je trouve de très nombreux articles sur le sujet :
http://www.sciencedirect.com/science?_ob=ArticleListURL&_method=list&_Ar…

Je n’ai pas poussé la recherche très loin, ni en profondeur, mais sur la première page, je trouve plusieurs articles mettant en évidence des effets sur le fonctionnement de l’organisme, par exemple :

http://www.sciencedirect.com/science/article/pii/S1383571812002914
http://www.sciencedirect.com/science/article/pii/S0147651312003685
http://www.sciencedirect.com/science/article/pii/S1388245709007585
http://www.sciencedirect.com/science/article/pii/S1877042813037154
http://www.sciencedirect.com/science/article/pii/S0895398810600530

Toutes ces études mentionnent des effets divers sur l’organisme.

De façon plus claire, certaines études ne parviennent pas à trouver des effets à court terme sur les sujets étudiés :http://www.sciencedirect.com/science/article/pii/S0048969712002446

cependant d’autres permettent de mettre en évidence une prévalence supérieure de multiples troubles (maux de tête, problèmes de mémoire, malaises, trépidation, symtomes dépréssifs, altération du someil) pour le groupe exposé à des ondes radio émises par les stations de base GSM que pour le groupe témoin, avec des taux bien supérieurs :
http://www.sciencedirect.com/science/article/pii/S0161813X06001835
je cite :
The prevalence of neuropsychiatric complaints as headache (23.5%), memory changes (28.2%), dizziness (18.8%), tremors (9.4%), depressive symptoms (21.7%), and sleep disturbance (23.5%) were significantly higher among exposed inhabitants than controls: (10%), (5%), (5%), (0%), (8.8%) and (10%), respectively (P < 0.05).


Je cite la conclusion :
Conclusions and recommendations
Inhabitants living nearby mobile phone base stations are at risk for developing neuropsychiatric problems and some changes in the performance of neurobehavioral functions either by facilitation or inhibition. So, revision of standard guidelines for public exposure to RER from mobile phone base station antennas and using of NBTB for regular assessment and early detection of biological effects among inhabitants around the stations are recommended.


Bref, certains ne parviennent pas à détecter de phénomènes, d’autres ci, mais je n’ai pas vu d’étude prouvant de façon indubitable l’innocuité de ces ondes.


D’autre part, ce types de bases de données sont plutôt orientées vers les chercheurs, et vous verrez que pour lire les articles complets, il vous sera demandé de payer. Etant chercheur de profession, je peux accéder au contenu de ces articles, mais ce n’est pas forcément nécéssaire pour en comprendre la teneur.
En effet, lorsqu’on publie un article dans un journal scientifique (et cela à une signification bien précise dans le domaine de la recherche, science et vie étant une revue grand public, et non pas scientifique. Une vraie revue scientifique au sens “recherche” implique que chaque article est relu par des scientifiques du domaine faisant autorité dans les problématiques traitées. Le système n’est pas parfait, mais la plupart des revues sont très sélectives, et le taux d’acceptation des articles est généralement compris entre 10 et 30%. On ne garde donc que les papiers dont la méthodologie est sérieuse, les références bibliographiques sont cohérentes, etc.), on doit fournir un “abstract”, à savoir un résumé du papier, qui est utilisé entre autres pour l’indexation.

Cet abstract est généralement accessible à tout le monde, même si vous n’êtes pas affilié à un laboratoire. Contrairement aux résumés de romans, il doit réellement synthétiser rapidement les travaux de recherche présentés.


Donc si vous cherchez des sources fiables, tournez vous vers des bases telles quehttp://www.sciencedirect.com/ ou encorehttp://link.springer.com/

On peut y faire des recherches par mots clés, et ainsi voir certaines choses en lisant les abstact (cela fait d’ailleurs partie du métier de chercheur : regarder ce qui se fait pour connaitre au mieux le domaine d’étude)


En conclusion, il me semble un peu trop simpliste d’affirmer “les téléphones portables n’ont aucun effet sur la santé”, puisque j’ai pu produire au moins 5 papiers dont celui parlant des effets sur les patients dans une revue prestigieuse (cela est en partie mesuré par un indice appelé “impact factor”, dans ce cas, à 3.7, ce qui est assez énorme), et ce en 2 minutes. Il m’a fallu plus de temps pour rédiger ce post.

Maintenant, la réponse à la question “les ondes sont elles toxiques” est également complexe : à quelle dose? sur quelle durée? à quelle fréquence? dans quelles conditions?
Les variables dépendentes sont très nombreuses, et il est difficile de fournir une réponse. Toutefois il semble qu’on puisse trouver de multiples cas ou un impact sur la santé est mesuré.

Bref, ne soyons pas absolus, et faites attentions aux médias de vulgarisation scientifique. Ils proposent souvent des documents intéressants pour expliquer certaines choses (la tectonique des plaques, le système solaire, etc), mais ne représentent pas forcément l’avis de la communauté scientifique, encore moins sur des points complexes, sensibles, et particulièrement débattus.


PS : si certains sont intéressés par par de tels articles, faites moi signe, je peux vous aider à les obtenir de façon légitime.




Le Steam Controller troquerait sa croix directionnelle pour un stick

Le 27/07/2014 à 10h 08






Oryzon a écrit :

Depuis leur annonce je ne comprend pas trop l’intérêt de tout ce barnum.
Côté client ils ont déjà un Steam parfaitement fonctionnel sur Windows avec plus de jeux que toutes les plateforme concurrentes n’en auront jamais => mais non il faut réinventer la roue avec SteamOS…
Côté manette le pad 360 et XO sont déjà des quasi standards = mais non il faut là encore tout refaire…
Bon.


Ouais enfin bon, le client steam windows il fonctionne toujours…
SteamOS, c’est jamais que le client linux avec un menu qui se lance en full screen.
A moins que tu ne critiques la version linux de Steam? Si c’est le cas, c’est sympa pour les usagers de linux… Si ça te plait pas, t’en sers pas. Mais je vois pas de raison de gueuler parce qu’ils le font, c’est pas au détriment de quoi que ce soit.

Et sur la manette, si elle te plait pas, prends n’importe quelle autre manette USB, peut être?
C’est pas comme si c’était une Xbox ou une PS4 ou tu es obligé d’utiliser leur pad?

Moi je suis bien content de voir quelqu’un essayer un truc nouveau dans le domaine des pads. L’interface haptique me semble une super idée, j’ai hate de tester.

D’un autre coté, je n’aime pas les sticks analogiques, mais je viens pas râler parcequ’il existe des pads qui en ont…

Maintenant sur le steam controller en lui même, si le dpad disparait, ça veut dire qu’on ne peut plus jouer aux jeux de baston? (à moins que les gens ne jouent
au stick analogique maintenant? ça me parrait moins précis, mais peut être que je me trompe?)
Mais du coup c’est un peu surprenant d’avoir deux fonctions un peu redondantes de contrôle “analogique”, puisque la surface haptique est censée remplacer le stick non?

D’un autre coté je crois me rappeller que la surface haptique est clickable aux quatre coins, donc ça peut servir de croix peut être!

N’empêche ça pourrait donner de nouvelles choses intéréssantes, et je sens qu’on va hacker ce contrôleur vers toutes sortes d’autres usages (pilotage de robots, de drones, etc)



Controverse Areal : les drôles d'explications de son créateur

Le 27/07/2014 à 09h 35

Bon, mais la licence de Stalker, elle est à qui maintenant?
Pour l’instant, ce que j’ai vu de plus proche d’un successeur de Stalker, c’est la serie des Metro, même si c’est assez différent… Disons qu’il y avait quelquechose dans l’ambiance.

Maintenant, c’est sur qu’un vrai nouveau Stalker (même si ça s’appelle autrement, même s’ils changent un peu le “lore”, s’ils reprennent les fondations construites dans call of prypiat, ça me va), ce serait über leet roxxor!

Tous les Stalker m’ont super plu, mais le dernier était un vrai chef d’oeuvre, un approfondissement du concept, en enlevant tous les trucs chiants des autres, bref, l’un des meilleurs FPS de ma mémoire, et j’ai commencé à jouer à l’époque de Duke3D ^^

J’ai entendu parler d’une sorte de MMO en F2P, ça ne m’inspire pas grand chose, là, cette campagne dont je n’avais jamais entendu parler, et qui semble louche…

C’est vrai que ce serait super de pouvoir avoir un kickstarter par les dev d’origine, et qui ferait un gros projet comme star citizen…
Car malheureusement je crains que les éditeurs soient frileux à tenter des titres
comme Stalker, malgré le succès d’estime…
C’est sans doute plus rentable de faire des FPS “hollywood” à la call of duty…


Raspberry Pi : le modèle B+ annoncé, il reste à 35 dollars

Le 18/07/2014 à 17h 32






Sam LAYBRIZ a écrit :

Perso, j’ai cru a un port sata…et sinon, j’ai pas trop compris pour la gestion de l’usb…il est toujours dérivé du chipset reseau ?
Si c’est ça, ca n’est qu’une fonction de hub et c’est pas interessant…



Sur le PI modèle B, il y avait une puce qui fait le ethernet et l’USB avec 2 ports.
Le modèle B+ embarque la puce juste au dessus dans la gamme, avec ethernet + 4 ports.

En pratique, il ne faut pas s’attendre à un débit de 4* débit max USB2, car il y a un bus partagé entre éthernet et USB.

Cependant, l’intérêt c’est surtout d’avoir 4 ports USB2 directement sur la carte, donc pas besoin d’ajouter un HUB, les USB2 pourront tirer plus de courant du fait du plus gros fusible, et les ports sont bien alignés.

C’est une évolution du RaspiB, pas une version 2, en gros ils ont corrigé ce qui pouvait l’être (par exemple, il ont mis 4 trous de fixation, en rectangle, mis les ports sur deux cotés plutot que sur les 4, ajouté des GPIO, mis des régulateurs à découpage pour le 3.3V et 1.8V au lieu de régulateurs linéaires, ce qui réduit la conso, le dégagement thermique, etc)

Bref, de petites modifs, dont certaines qu’on faisait nous mêmes, et qui améliorent grandement le produit pour la classe des utilisateurs qui s’en sert pour fabriquer des trucs. Pour ceux qui s’en servent juste en media player, sans exploiter les GPIO, hors embarqué, ça risque d’être moins utile.

Mais pour ceux là, il faudrait un nouveau SOC avant tout, et là, ce serait une nouvelle carte, et plus le pi.



Le 18/07/2014 à 17h 25










brice.wernet a écrit :

En fait, si tu alimente ton RPi B avec un transfo 5V/1A(5W), il te reste 1,5W-2W pour l’USB (au mieux).
Un port USB peut alimenter normalement jusqu’à 2,5W.

Avec un adaptateur 5V/2A, ç passe bien mieux.


En fait, il y a un fusible a 1A sur le pi modèle B.
Donc en pratique, tu ne pourra pas réellement avoir le courant que tu souhaites.
En pratique, il y aura donc 1A-consoRpi de dispo pour l’USB et l’ethernet sur le modèle B.

Sur le modèle B+, le fusible est passé à 2A.



luxian a écrit :

Si je me souviens bien, j’ai quelques part que les ports USB étaient moins fortement alimenté (ordre de 650mV à la place de 750mV).
Ce RasPi consomme moins, mais il n’est clairement pas fait pour la même utilisation que le B. Du coup, qu’ils gardent le B est logique.


Non, c’est la conso du pi qui baisse aux alentours des 600mA.
Le courant disponible pour l’USB et le LAN est courant d’entrée - courant consommé par le PI.

Donc du fait du plus gros fusible, le courant dispo sur les USB (et aussi sur le rail 5V accessible via les GPIO) est donc plus important avec le modèle B+.



Le 18/07/2014 à 17h 14






reevus a écrit :

Justement je commencais à regarder pour une machine arcade à base d’un Pi…

Du coup vous auriez des conseils ?? (machine, distrib, joypad, etc…)


J’ai testé RetroPie,
il gère plein d’émulateurs (nes, snes, megadrive, neogeo, N64, playstation1, et aussi Mame et encore d’autres). Ils ont une image SD, donc c’est facile à installer , et ça marche. EN joypad, j’en ai pris un en USB, simple, mais ceux de la PS3 et de la XBox sont supportés (il y a un menu pour installer automatiquement les pilotes). Pour mon pad USB ça fonctionnait d’office.

Seul défaut : il faut trouver comment aller configurer les touches du pad pour l’émulateur utilisé.



Strimy a écrit :

Il faut très certainement qu’ils changent de SoC… Celui qu’ils utilisent est complètement à la ramasse et basé sur une architecture obsolète… Les diverses alternatives proposées dans les commentaires sont déjà bien plus intéressantes. Le Pi, c’était bien à sa sortie mais aujourd’hui j’ai du mal à y voir un intérêt quelconque. Le prix est certes intéressant, mais les performances sont tellement limitées qu’il vaut mieux mettre un peu plus et avoir du matos qui tienne bien plus la charge.


Le Pi est pensé pour un usage pédagogique, en étant le moins cher possible. Même si on s’en sert pour plein de trucs, la cible initiale n’était pas ce qu’on en fait :)

D’autre part, à mon sens, le PI, avec son coût très faible et ses GPIO est parfait pour plein d’usages : domotique, robotique, station météo, monitoring, traitement d’image du module caméra, etc…
Pour ma part j’espère qu’on restera longtemps sur ce SOC, car avec le temps on l’exploite de mieux en mieux, et les ressources deviennent énormes pour pouvoir faire ce qu’on veut avec. Ce qui est chouette, c’est que si je prends un PI, avec un soft dessus, je sais que ça fonctionnera sur un autre. Je peux échanger les cartes SD, etc.

Maintenant, c’est sur que ce serait chouette qu’ils fassent un modèle C, ou un autre produit. Le problème c’est que la fondation Raspi est à but non lucratif, donc j’imagine que s’ils font un bidule plus puissant et plus cher pour les usages que tu souhaites, il faudra qu’ils changent de forme…



Le 18/07/2014 à 17h 02






Aekyros a écrit :

La fausse joie du matin ! J’ai cru à l’augmentation de la RAM mais en fait non ! :(



Salut!
Le Raspi ne pourra jamais avoir plus de 512 de RAM, c’est une limitation du chipset Broadcom. La fondation Rpi à bien précisé ce point depuis un moment :)
En revanche, il est fort probable qu’un Raspi II ait accès à davantage de RAM et de tout :)



SSD Samsung 850 Pro : V-NAND, plus de 500 Mo/s et une garantie de 10 ans

Le 04/07/2014 à 14h 07






yl a écrit :

Par ailleurs, 1GB de cache, ca devient du délire. Bonjour l’ampleur de la casse potentielle en cas de perte d’alim. A reserver aux laptops sur batterie (les SSD gamme pro évitent en général tout usage de cache).


Salut,
sur cette remarque, 1Go de cache, c’est pas si gros si tu compares au débit du disque en fait… à 500Mo/s, ça fait juste 2s d’écriture… avec un bon condensateur, ça doit passer!

D’autre part, je ne pense pas que le système attende que le cache soit plein avant d’écrire. En revanche, ça doit servir lorsque le disque doit déplacer des données, réorganiser des trucs : il peut lire plein de choses, faire ses calculs, écrire, puis effacer les cellules sources après en une fois!



Eugene, le premier programme à passer avec succès le test de Turing

Le 10/06/2014 à 11h 20






yvo2m a écrit :

relis l’énoncé :

Le juge parle à 2 personnes et sait que l’une d’elle seulement est un humain et que l’autre est une machine.
Si la machine est parfaite il sera incapable de différencier les deux et sera réduit à désigner au hasard qui est la machine (ou sur des arguments non pertinents).
Dans le meilleurs des cas on a donc statistiquement 50%. C’est pas moi qui le dit, c’est l’énoncé et la méthodologie du problème qui l’impose.


Dans ce cas, je comprends ton raisonnement!

Du coup, à mon sens, ça pose un biais : si on peut s’appuyer sur le résultat des précédents tests, dans quelle mesure le test est il fiable?
il semble qu’il y ait pas mal d’implémentations de ce test, ceci dit, je reconnais que c’est un problème difficile, et qu’il n’y a probablement pas une méthodologie parfaite!



Le 10/06/2014 à 11h 08






HarmattanBlow a écrit :

La recherche existe aussi dans le privé. Et aux USA il y a plusieurs domaines où les meilleurs chercheurs ont tous été recrutés dans le privé.


Bien sur!
cependant, si c’est dans le privé, soit c’est publié par le biais des publications scientifiques classiques, et donc le principe est connu, soit ce n’est pas publié, ou conservé secret. Et dans ce cas, ça n’existe pas, scientifiquement…
Du coup quiconque peut le réinventer :)



HarmattanBlow a écrit :

Sauf lorsque les chercheurs se sentent obligés de ne pas prendre de risques et de faire de l’incrémental par-dessus un modèle dont tout le monde sait qu’il ne fonctionne pas.


On peut difficilement affirmer que c’est le cas de TOUS les chercheurs! D’autre part, comment quantifier la proportion de ceux qui ne font que de l’incrément?
D’autre part, “tout le monde sait que ça ne fonctionne pas” jusqu’à ce que quelqu’un trouve une solution… C’est précisément ce qui est arrivé sur les réseaux de neurones artificiels pour lesquels on a montré qu’ils n’étaient pas capables de résoudre des problèmes non linéairement séparables… Jusqu’à ce qu’on rajoute la backpropo en 89 :)
Du coup, comment dire que “ça ne marche pas”, et que personne ne prend des risques?

Enfin, vu la taille du pool de chercheurs, on a des chances d’avoir des chercheurs “non courageux”, aussi bien que des hawking, capable d’affronter l’idée générale que telle chose est impossible.



HarmattanBlow a écrit :

Le recours à des thésards est autant une plaie qu’un avantage. Le problème avec les thésards et compagnie c’est que tu dois les faire bosser sur de la matière dont tu sais qu’ils pourront extraire de nombreux articles et une thèse (parfois inintéressants aux yeux de tous mais faisant des sujets valables et neufs), plutôt que de les faire bosser véritablement sur ce dont tu as besoin. Et ton propre temps se retrouve consacré à encadrer et administrer plutôt qu’à mettre en branle tes idées.


Certes, mais d’un autre coté ton thésard ne va pas travailler sur une problématique sans lien avec ton domaine de recherche… Et puis le chercheur n’est pas obligé d’encadrer des thèses sans cesse non?
D’autre part, si le thésard fouille “à coté” de tes problématiques, ça fait tout de même un nouveau chercheur qui fait avancer la science dans son ensemble! Certes, certains sujets sont de peu d’intérêts, mais d’autres sont chouettes :)



HarmattanBlow a écrit :

La recherche contemporaine, surtout dans l’informatique, fonctionne relativement mal.


C’est une information qui t’engage, je ne suis pas forcément d’accord. Encore une fois en conf, je vois plein de chercheurs qui font des trucs passionnants… Certains présentent des papiers dont on peut douter de l’intérêt, mais ce n’est pas le cas de tous!
D’autre part, si la recherche ne fonctionnait pas, on n’avancerait pas! Pourtant l’informatique dans son ensemble progresse quand même significativement, à mes yeux.
Maintenant, je concède que la recherche publique à bien sur des problèmes, notamment sur les financements, le débouché, etc. Mais de là à tout jeter, pas d’accord :)



Le 10/06/2014 à 06h 15

Tiens au passage, la news a en image l’oeil de mon avatar :p
(bon, oui, j’ai fait cette machine spécifiquement pour qu’elle ressemble à HAL9000 -je l’ai appellée HAL3000, un petit projet raspberry pi ^^- donc forcément si la news met l’oeil de HAL, ça ressemblera :p )


Le 10/06/2014 à 06h 09






HarmattanBlow a écrit :

Le truc bien avec l’IA c’est que beaucoup des algorithmes et techniques existants (ou du moins publics) sont loin d’être optimaux. Du coup ça ouvre des perspectives pour un esprit ingénieux.


Logiquement tous les algos reconnus par la communauté scientifique ont été publiés, vu que c’est comme ça que fonctionne la recherche. Maintenant, l’IA, c’est une science qui a un certain nombre d’années (le perceptron de rosenblatt, ça remonte aux années 40!), et vu la masse de bonhommes costauds qui sont passés dessus, c’est difficile de prétendre améliorer significativement le domaine sans être chercheur à plein temps dans le domaine… Si on regarde les SVM, Vapnik et ses copains ont passé plus d’une décennie à faire des publications majeures sur le sujet pour amener les SVM à un niveau comparable à celui des MLP en terme de capacités d’apprentissage, et c’est pas n’importe qui (donc ça implique des moyens, sans doute plein de thésards, etc :) )



Lafisk a écrit :

Qu’est ce que tu entends par optimaux ? Non car deformation professionel oblige, pour moi optimisation d’un algo c’est le temps d’execution, et ca, en IA, je dirais qu’on s’en fiche un peu (pas vraiment vu les calculs a faire vaut mieux que ca aille vite mais c’est pas le principe numero 1 de l’ia) ce qui compte c’est avant tout le resultat, c’est a dire, est-ce que l’IA remplit le but de ce pourquoi elle a ete faite ? si oui, alors tu peux optimiser apres, sinon tu jettes a la poubelle.


Si tu veux faire de l’IA sur des problèmes très complexes, l’optimisation devient vite le problème numéro 1. En effet, plus le problème est complexe, plus tes données ont une dimension importante, c’est à dire beaucoup de variables. Pour plein de modèles connexionnistes, ça impactera directement la taille de ton système, et donc la encore plus la durée d’apprentissage. Sachant qu’en plus il y a des “hyper-paramètres” à optimiser, donc qu’il faut recommencer l’apprentissage plusieurs fois, et que tu dois faire de la validation croisée pour évaluer ton système et éviter le sur-apprentissage, tu finis vite par atteindre des durées de calcul si importantes qu’elles en deviennent impossibles.

Un exemple concret : pendant ma thèse, j’ai travaillé sur un système d’IA visant à utiliser des réseaux de neurones pour estimer l’alcoolémie de quelqu’un en utilisant des données décrivant sa façon de conduire dans un simulateur de conduite (donc sans éthylomètre). J’avais seulement 25 variables possibles, et je voulais déterminer la meilleure combinaison de ces 4 variables. Donc je prends 4 variables, et je teste mon réseau de neurones, et je note son taux de bonnes estimations. je teste une autre combinaison, et je vois si c’est mieux, et ainsi de suite.
Dans ce contexte, si je faisais une exploration systématique de toutes les combinaisons possibles, j’en aurais eu pour plusieurs mois de calcul, sur un I3 dual core avec hyperthreading (mon algo est parallélisé). J’aurais pu le faire tourner sur un cluster, mais ça aurait quand même pris des jours.
Et pourtant ma base d’exemples fait dans ce contexte 100 exemples, et mon réseau de neurones n’est pas trop gros.

Donc imagine si tu pars sur des problèmes a 10 000 variables!

Bien sur, il existe des techniques pour effectuer ce genre de sélection plus rapidement.
Mais le but de cette anecdote est d’illustrer le fait que l’optimisation n’est pas du tout anodine, sauf petit problème simple. Quand je vais dans des confs sur l’IA, il y a des mecs dont l’intégralité des travaux de recherche consiste non pas à utiliser des systèmes apprenants, mais à en optimiser un petit point pour gagner un peu de perfs. La sélection d’attributs (les variables à donner au système) est un domaine de recherche en soi, l’optimisation de la topologie des modèles aussi.

Cette optimisation peut parfois rendre des problèmes qui étaient impossibles à traiter du fait de la complexité trop lourde en terme de calculs solubles par des systèmes apprenants, grâce à des méthodes d’optimisation nouvelles.

Pendant ma thèse, un des trucs qui m’ont le plus ennuyé, c’était justement d’attendre que le réseau finisse de s’entrainer, pour voir si la configuration testée etait bonne ou pourrie. C’est assez pénible d’attendre 5 minutes un calcul pour voir qu’en fait c’est tout nul :)



Le 10/06/2014 à 05h 35






Pazns a écrit :

Par ailleurs, le terme d’ “ordinateur à ADN” me parait un peu maladroit.
L’ADN n’est qu’une brique de la vie parmi une foultitude d’autres plus, même si symbolique il n’est pas suffisant, et d’ailleurs ce n’est qu’un support de données d’une étape particulière.
Tout le boulot est abattu par ces pauvres enzymes, même pas reconnues !

Peut-être qu’elles devraient faire un syndicat pour faire valoir leurs droits ouvriers ? <img data-src=" />



Salut, juste pour dire que les “ordinateurs à ADN” existent bel et bien, il y a des puces qui utilisent l’ADN pour réaliser des opérations :) C’est ultra-spécialisé, mais ça existe!



Le 10/06/2014 à 05h 32






Nikolaos a écrit :

Je confirme Jean_Peuplus mais j’ai pas bien compris ton explication.

Donc non 30%, c’est pas mal: il faut voir les 50% comme étant un résultat “parfait” et non 100%. Si on admet que les personnes sont incapables de faire la différence entre un enfant de 13 ans et un ordinateur, alors ils répondront au hasard: le hasard fait que l’on tendra vers les 50%.



SI tu ne sais pas faire la différence entre un humain et une machine, alors c’est que tu penses que les deux sont humains. A mon sens, dans un tel système, on demande au juge s’il pense avoir parlé à un humain ou à une machine. De même que je suis en train de te répondre, si tu es une machine, je pense tout de même que tu es un humain, et je ne vais pas affirmer au pif que tu es ceci ou cela.

Si on prend le principe qu’un sujet incapable de faire la différence entre un humain et une machine répond au pif, alors le test est complètement faussé, car dans ce cas, s’il parle à un humain, il peut penser qu’il s’agit d’une machine non différentiable d’un humain, et donc répondre au pif… La question est donc plutot : “pensez vous avoir parlé à un humain?” et la réponse oui ou non.
En fin de test on peut donc calculer le taux de vrais positifs, faux positifs, vrais négatifs, faux négatifs, et à partir de la voir dans quelle mesure le système trompe les juges.
La statistique importante ne sera pas combien d’humains ont été détectés comme humains, mais combien de machines ont été détectées comme humaines. Donc à priori,
nb_machines_classes_humaines/nb_machines, qui donne bien la probabilité pour une machine de se faire passer pour humaine.




Lafisk a écrit :

non pas du tout, je ne parle pas du tout de RDN mais bien d’ordi a adn, qui sont des ordinateurs qui ne reposent pas sur des echanges electriques mais dont le resultat est donne par une reaction chimique. L’homme est plutot dans cette categorie.

Pas les biologistes que je connais alors en tout cas, et a la fac l’etage de la biologie etait juste en dessous de celui de l’info, j’en ai regulierement parle avec certains qui niait farouchement qu’un ordi puissent etre considerer comme un etre vivant a part entiere… apres, peut etre que d’autre le font, mais pas ceux que j’ai rencontrer ;)


Bonjour,
Je suis d’accord avec toi sur le fait que l’humain est une machine moléculaire, et qu’une partie de sa machinerie est un énorme système basé sur des réactions chimiques, pour toutes sortes d’interactions de base, par exemple l’absorbtion de ressources nutritives, ou toute la machinerie cellulaire. Maintenant, si tu parles de la partie plus “haut niveau” de l’homme, à savoir son intelligence, elle repose bien sur des réseaux de neurones. Des interactions chimiques ont bien entendu cours, notamment au niveau des synapses; d’autre part, les potentiels électriques circulant sur les axones ont très certainement une composante chimique à un moment ou un autre. Mais les processus cognitifs ne font pas intervenir, à priori, l’ADN, autrement qu’en modelant la topologie initiale du cerveau, et donc des réseaux de neurones. La plasticité du cerveau est importante, et on se rend compte que le génotype de fait pas tout, le phénotype est également primordial.
Donc en pratique, le génome pose les limites maximales et minimales des capacités cognitives, mais c’est bel et bien le réseau de neurones qui est au coeur des performances de celui ci.

Les ordinateurs à ADN sont de jolies choses, mais ils ont une utilité pour des domaines spécifiques, principalement pour le traitement parallèle de masses de données. En revanche, en terme d’IA et d’intelligence tout court, je n’ai jamais entendu parler d’une utilisation de tels systèmes.

L’important, je dirais même l’essentiel dans le domaine de l’intelligence artificielle, c’est la capacité d’apprentissage. La finalité de la plupart des systèmes d’IA est de pouvoir apprendre des problèmes.

La problématique qui se pose en recherche dans l’IA, c’est donc d’être capable d’apprendre chaque problème correctement, de façon à pouvoir généraliser sur des cas inconnus. Je peux donc utiliser divers systèmes apprenants pour produire un système capable de te reconnaître visuellement, mais il m’en faudra un autre pour reconnaître ta voix, et encore un autre pour chaque problème.
(c’est une simplification, car par exemple un réseau de neurones peut avoir plusieurs sorties, mais l’idée générale est bien là : chaque système apprenant sera à priori capable de reconnaitre certains types de problèmes, et pas d’autres).

L’avantage du cerveau tient à sa taille immense : en matière de neurones, on est à plusieurs ordres de grandeur d’écart avec ce qui se fait en recherche pour les réseaux de neurones. Le problème principal est que si on veut entrainer un réseau de neurones, il faut des exemples. Plus le réseau est vaste, plus il faut d’exemples.

De plus les algorithmes d’apprentissage pour les réseaux de neurones sont coûteux, et plus le réseau croît, plus le coût augmente. De fait, il est exponentiellement plus difficile de faire croitre la taille du réseau, jusqu’au point ou il soit assez grand pour pouvoir apprendre de nouvelles classes de problème sans difficulté majeure.

Il y a sans doute une limitation dans les algorithmes d’apprentissage utilisés, car on ne connait pas l’algorithme d’apprentissage utilisé dans les réseaux de neurones biologiques.

Enfin, dernier point, les réseaux de neurones les plus utilisés sont de type MLP (perceptron multi-couches, ou Multi-Layer Perceptron), et dans ces réseaux la durée de propagation de l’influx nerveux n’est pas prise en compte. Il n’y a pas non plus de boucles. Il existe d’autres types de réseaux de neurones artificiels, comme les réseaux de hopfield (topologie plus complète), ou les réseaux à spikes (qui simulent les influx nerveux, l’affaiblissement, et la durée de propagation du signal, et d’autres phénomènes physiques), mais on à bien plus de difficultés à entraîner de tels réseaux.
Ils sont de fait moins utilisés pour des problèmes concrets que le classique perceptron multi-couches avec rétro-propagation du gradient (LE modèle qu’on utilisera par défaut pour un problème quelconque, car il fonctionne bien, est efficace, et on sait bien l’entaîner).
A noter qu’il existe plein d’autres modèles connexionnistes, avec par exemples les machines a vecteur de support, super à la mode en recherche, car l’apprentissage est super rapide, et les perfs excellentes.

Les réseaux de neurones continuent toutefois à évoluer, avec notamment le “deep learning”, qui s’intéresse à une notion plus évoluée de l’intelligence qu’avec les méthodes d’apprentissage classique, mais je n’en parlerai pas, car je ne maîtrise pas particulièrement ce domaine de recherche.
http://en.wikipedia.org/wiki/Deep_learning


Concernant la vie, et savoir si ce programme est vivant, au sens biologique premier, la réponse est clairement non, car la vie à diverses définitions bien précises:
http://en.wikipedia.org/wiki/Life#Biology

Tout le monde n’est pas d’accord dessus, mais certaines choses, comme la capacité à se reproduire, sont très fréquentes. Ce système est seulement capable de mimer le comportement de conversation d’un humain.
SI je transfère mes processus cognitifs dans une machine, de sorte que je reste moi, j’existerai, mais je ne serai plus “vivant” au sens biologique.

Maintenant la question intéressante serait plutôt de savoir si le système est “sentient” comme disent les anglophones, ou un équivalent en français “conscient” (même si le mot français a un sens plus complexe).
Ici, c’est plus difficile à déterminer, car comment déterminer précisément la conscience, et ce que ça implique?

S’agit il d’une modélisation symbolique de haut niveau des informations reçues?
A mon sens, ce système n’est pas conscient, car c’est probablement un système d’inférences, ou encore un système apprenant, sans nécessairement plus derrière.
Mais en est on réellement si loin?

Je pense qu’il faudrait un second test, un test de conscience, pour lequel il faudrait que la machine elle même puisse déterminer si elle est consciente ou non (pas juste le dire, mais avoir le raisonnement qui nous permet de dire que nous sommes des êtres conscients).

On peut imaginer qu’une machine programmée pour penser qu’elle pense librement, et qu’elle est consciente, ne serait pas si différente d’un cerveau humain. Si cela se trouve, ma pensée actuelle est la cause totalement prévisible de l’état électrique de mon cerveau, et peut-être ne suis-je qu’une simple machine biologique totalement déterministe, bien que si complexe qu’on aie l’impression qu’elle est imprévisible.

Pour le savoir il faudrait pouvoir me confronter à deux situations totalement identiques, avec exactement la même mémoire, le même état electo-chimique de mon cerveau, ce qui est malheureusement impossible pour le moment…

Enfin bref, bisous aux Inpacticiens, c’est toujours drole, sur ce genre de news, on se pose des questions bien particulières :)



Le 10/06/2014 à 04h 51






yvo2m a écrit :

Oui c’est ce que je me suis dit au début, mais si on réfléchi le hasard aurait donné 50%
30% n’est pas loin de 50% au final
en fait sur 10 personnes si 4 ont détecté la machine et les 6 restantes ont répondu au pif on obtient les 30% ! plus d’une personne sur 2 n’a pas su distinguer la machine !
Dans les fait ça c’est joué probablement sur des intuitions sans aucune certitude.


Ta méthodologie me parrait incorecte.
Pour un problème de classification binaire (deux solutions : humain ou machine), si l’on considère que la répartition est équitable, et que chaque juge à affaire à un tirage aléatoire, alors en répondant au pif, il a une chance sur deux de trouver les humains et les machines. Donc si l’on s’écarte de cette barre de 50%, c’est que le classifieur (les juges) sont capables de détecter effectivement les humains et les robots.
Si tu pars du principe que des juges ont répondu au pif, ça avantage autant une solution que l’autre.
En pratique, un classifieur binaire sera d’autant meilleur qu’il sera au dessus de 50%, si bien sur les classes possèdent des effectifs comparables (ce qu’il me semble évident qu’ils ont fait pour le test, ce serait un biais sinon).
Si l’on renverse la perspective, on peut considérer que le système qui doit tromper le classifieur est d’autant plus efficace qu’il dépasse les 50%.

En théorie dans ce contexte si on atteint 50%, cela implique déja un très bon résultat, puisque le classifieur en est réduit à un tirage aléatoire. Toutefois, à mon sens le résultat optimal serait une configuration ou les juges tendraient à répondre “tous humains”. Mais il faudrait pour cela que chaque juge n’aie qu’un seul cas à déterminer, de façon à ce qu’il ne se dise pas au bout d’un moment “tiens, ça fait que des humains, j’ai du rater des robots!”



My Plug 2 : une prise pilotable par SMS ou via une application, pour... 95 €

Le 25/05/2014 à 13h 47






Guinnness a écrit :

Sauf que là tu es complètement hors sujet : là on parle de produits finis exploitables sans trop de connaissances par la majorité des gens et toi tu parle de développer des applis perso sur microcontrôleur <img data-src=" />

Tu sais que 90% (à la louche) de la population mondiale n’a aucune idée de ce que peut être un microcontrôleur ?


Je parlais pas à la population mondiale, mais à la communauté inpacticienne :)
Et l’idée de mes posts c’était d’inciter à tester, venir bidouiller des trucs, sachant qu’il y a du monde disposé à aider les débutants!

Avec un Arduino, pas forcément besoin de s’y connaitre en µC, il suffitde suivre un tuto!

Enfin, je parlais du pi, qui n’est pas un microcontrolleur, mais un ordinateur classique :)

bref, je propose pas un produit tout en un pour concurencer, mais aux inpacticiens de fabriquer leur truc, pour bien moins cher, et mieux!

Au passage, connaissant les composants requis à un tel apparail, le prix de leur truc reste très excessif!



Le 22/05/2014 à 16h 10

Comme ça a déjà été dit, on peut faire bien mieux pour moins cher, avec plus de possibilités.
Pour supprimer le coût de l’abonnement mobile, en plus, il suffit de connecter le bidule en wifi au réseau chez soi, et envoyer des paquets par internet de n’importe ou (du coup la seule carte SIM requise est dans le téléphone de l’utilisateur, mais vu qu’on fait un truc propre, on peut aussi passer par n’importe quel appareil connecté sur internet…)

Ensuite on peut aller bien plus loin, en allumant/eteignant des trucs en fonction de divers paramètres (température, heure, luminosité, etc)

L’avantage de partir sur du DIY, c’est qu’on a du modulaire, et on peut ajouter des usages ensuite :)
Avec un Pi, on a de quoi faire ce que ce machin fait, mais en plus contrôler individuellement plein d’autres appareils, ou encore automatiser l’arosage des plantes en fonction du soleil, des précipitations et de l’heure par exemple.

Bref, plutôt que d’acheter un machin fermé, non extensible, cher, et mono usage, on peut se faire un truc ouvert, extensible, adaptable à presque n’importe quoi, pour moins cher… Une sorte de station domotique avec support du réseau :)

Pour ma part le choix est clair :)
D’ailleurs je suis en train de bosser dessus, en juin je ferai des tutos domotique dans le forum!


Le récap' des tests : du stockage pour tous les goûts

Le 14/05/2014 à 15h 56






kypd a écrit :

Heureusement que j’ai précisé en usage “domestique” <img data-src=" />

Dans une salle serveur je m’inquiète pas, c’est bien pour ça que les Hitachi HGST 6Go ne sont déclinés qu’en version Pro pour l’instant…



C’est pas tant le problème du 7200 tr/min, que celui des 5 plateaux, c’est un des premiers HDD de grande distribution embarquant autant de plateaux, cela provoque nécessairement une température / consommation / bruits accrus, alors se risquer en plus avec des modèles hautes performances…

Je comprend qu’ils ne soit intégrés que dans des boitiers avec un disque unique pour l’instant…

En informatique tout est question d’ordre de grandeur, 1 plateau de plus, 2 W de plus et quelques dB de plus c’est tout à fait envisageable, quand on multiplie ces valeurs par 2, 4 ou plus, ce sont des petits désagrément qui vont vite s’ajouter les uns aux autres !



Je ne suis toujours pas d’accord.
Dans mon cas je parlais d’un NAS domestique, il est sur mon bureau, à 2m de mon lit, et contient 5 ou 6 disques de 2To.
J’ai aussi eu un synology non ventilé, il a tenu très longtemps…

Pour l’histoire des 5 plateaux, c’est encore une fois incorrect, il y a déjà eu plein de disques à 5 plateaux. ça arrive à chaque fois qu’il n’y a pas d’évolution technologique importante permettant de faire plus avec moins de plateaux.
J’en ai eu il y a 10 ans environ.

D’autre part, tu parles d’ordre de grandeur. Justement, c’est important. Ces disques sont absolument dans le même ordre de grandeur que des 3 plateaux. La consommation sera supérieure de quelques pourcents, , la dissipation thermique également. Rien de suffisamment grave pour justifier de réelles inquiétudes.

Et encore une fois, il suffit que le nas soit ventilé par un ventilo de base, à basse vitesse, pour refroidir de façon adéquate 4 disques durs.

Bref, ce disque ne devrait pas poser plus de problème qu’un autre modèle quelconque. Si tu veux changer la conso significativement, passes au 5400RPM.

quand à “quelques DB de plus”, quelques DB c’est énorme. Un ventilo simple générera sans doute un bruit inférieur à plein d’autres choses dans la pièce.
Ceux de mon NAS sont inaudibles à 10cm.



Le 14/05/2014 à 13h 36






kypd a écrit :

Les 5 To en 5 plateaux à 7200tr/min c’est plutôt une mauvaise idée dans un NAS…

Les nuisances sonores, et le dégagement calorifique peu poser problème si on les empiles dans un petit boitier sans refroidissement spécifique ! (sans parler d’autre aspects tel que la consommation)

En tout cas en usage domestique je pense qu’il vaut mieux attendre des produits plus facile à “maintenir”


Tu peux pas être aussi tranché, un NAS ça peut être un petit boitier comme ce que tu as en tête, mais aussi un serveur plus conséquent, ventilé, etc…
J’ai fait mon NAS, et les HDD ne sont jamais chauds, et le bruit ne traverse pas la parroi.
Mais même dans un petit NAS, il suffit d’un ventilo en face des disques pour que ça passe bien…



Bandes-annonces : Sabotage avec Schwarzenegger et Gotham sans Batman

Le 12/05/2014 à 06h 38






arno53 a écrit :

C’est parce que pour moi ca ne vaut pas l’ecriture de Breaking Bad <img data-src=" />
Mais en effet, j’ai des gouts de luxe <img data-src=" />


J’ai pas vu la série walking dead, mais j’ai lu la BD.
Pour GoT, j’ai lu ET vu.
Et j’ai aussi vu Breaking Bad, et je vois pas bien comment tu peux trouver l’écriture des deux autres en deça!
L’univers de Walking Dead est quand même très riche, et celui de GoT n’en parlons même pas :)

Bien que j’aie apprécié Breaking Bad, je n’ai pas eu le même sentiment de “whoaa” qu’avec GOT, ou on va souvent de surprise en surprise, avec des gros moments de suspense. Pour walking dead, je ne peux pas parler de la série, j’ai juste vu un bout d’épisode 1, mais pour l’histoire, si c’est fidèle, c’est la même chose que pour GoT, avec une écriture qui fait qu’on est toujours dans une tension immense, impatients de la suite, avec un monde qui évolue de façon conséquente, sans complaisance, sans avoir l’impression que “ce passage c’est pour rallonger la durée du machin”.

Dans Breaking bad, bien que l’histoire soit intéressante, la réalisation très propre et tout, je n’ai pas eu ce sentiment de plongée dans un univers, de densité, etc…
D’un autre coté ça tient peut être au sujet : vu que les deux autres, en plus de raconter une/des histoires, créent aussi chacun un univers nouveau, donc forcément il y a plus à dire, alors que dans Breaking bad, c’est essentiellement centré sur les personnage, et même sur heisenberg (50%) et pinkman (20%) (le reste pour tous les autres persos ^^)

Sinon, Diantre! il est presque 3h du mat’ et je suis en train de faire des posts sur internet au lieu de dormir!
Vil internet, tu es ma ruine!
Morbleu, je gagne immédiatement ma couche!
A tantôt!



Le 07/05/2014 à 16h 06






arno53 a écrit :

Je veux du GoT/Walking Dead à la limite !


A la limite, quoi, çà passe :p
Tu te contenterais de trucs équivalents aux séries qui roxxent le plus du poney depuis super longtemps <img data-src=" />

Après, j’en conviens, quand on a des bons trucs, on en veut d’autres. Maintenant, on verra ^^



ABP dédie une liste aux sites qui affichent un avertissement anti-Adblock

Le 12/05/2014 à 06h 24

Ce qui est con, avec la pub sur le web, c’est que les techniques de ciblage (par ex chez google) ont bien progréssé, et du coup je vois des pubs vers des trucs qui m’intéressent. Le problème c’est qu’au bout d’un moment les régies de pub pètent les plombs, et du coup on te met des cochonneries insuportables, genre les pubs video MMA et autres conneries de la télé.
Non seulement ça gueule comme pas possible, mais ça bouffe de la bande passante, souvent ça fout la merde, et c’est pas du tout adapté à plein de types de support.
Sans compter que quel que soit le nombre de pubs MMA ou l’autre (je les confonds), ça ne changera rien, je m’en fous complètement, et je zape/mute/coupe le truc.

Du coup résultat, comme c’est super chiant, j’ai mis adblock et les “bonnes pubs” passent aussi à la trappe. C’est con pour les annonceurs, car certains provoquaient de l’achat de ma part (“ah tiens, une promo sur le arduino machin? chouette”), mais les pubs les plus chiantes et invasives sont en plus à propos de trucs dont je me contrefous, et bruyantes. Du coup tout le monde est bloqué…

Autre dégat collatéral : certains sites tellement pubés que c’en est illisible, genre clubic… Bah je ne suis plus allé sur clubic depuis des années. Leur site est dans mon souvenir dégueulasse, avec de la pub partout, et par dessus ça de la pub qui se met par dessus la page déjà pubbée et qu’il faut fermer…

A trop en faire on perd tout.
Sur PCI, je trouve que ça va. Ceci dit, je suis premium, et je sais pas quel réglage de pubs j’ai mis…
Mais je sais qu’il y a une charte éthique la dessus. Et c’est tant mieux, car si le site devenait aussi dégueulasse que clubic, nul doute qu’il perdrait de son audience, et qu’on se sentirait pas “chez nous” dans la communauté.

Enfin bref, j’aurais tendence à penser que les régies de pub devraient tenter de faire des trucs plus propres, sans forcément essayer de se rapprocher du modèle de la télé (interruption du programme pour la pub), surtout qu’ils ont la possibilité de fournir des pubs ciblées qui risquent bien plus de matcher. Dans ce cas la je suis sur qu’on serait plein à même pas penser à installer addblock…
Moi je m’en foutais, jusqu’a ce que les pubs flash/video/sonores commencent à se foutre partout…


Le récap' des tests : du stockage de toutes les tailles

Le 07/05/2014 à 16h 00






Master Of Bandwidth a écrit :

“The only issue that surrounds the C2750D4I since its release is the use of Marvell controllers. Users have been reporting that in Linux and FreeBSD, high intensity read/write workloads cause the controller to reset and elements to any software array are lost.”

Sympa … <img data-src=" />


Si en plus ça ne fonctionne pas bien sous linux/unix…
C’est vraiment pas pour troller, mais qui fait un NAS sous windows? ._.


En tous cas, au moins il semble que tout le monde trouve l’idée intéréssante, mais le produit proposé étrange, en terme de prix, perfs, etc…



Le 06/05/2014 à 01h 41

Bon, la carte mère 12 sata, je me suis dit “ou était elle quand j’ai fabriqué mon NAS”. Puis j’ai vu le prix o_o

Sinon, le atom 8 coeurs, on parle réellement de 8 coeurs, ou de 4 avec HT?
EDIT : on parle bien de 8 coeurs…
Ceci dit, ce CPU seul vaut 170$. En desktop, ne trouve t’on pas du i5 quad plus performant à ce prix, pour une enveloppe thermique proche?

Ce CPU m’intringue!


PiPhone : un smartphone basé sur le Raspberry Pi à monter soi-même

Le 30/04/2014 à 15h 29






Lyzz a écrit :


Salut!
Malheureusement, pour le pi, ce n’est pas trop le cas.
Entre le idle et la pleine charge, il n’y a pas ou peu de différences.
Des tests ont été faits par des utilisateurs, et l’underclocking, la désactivation de composants et autres ne changent pas grand chose. Le moyen de baisser la conso d’un raspberry pi, c’est de prendre le modèle A, et de changer le régulateur linéaire par un régulateur à découpage.

Dans ce cas, on peut etre aux alentours de 100mA en continu, donc avec une batterie de 2000mAh, on peut tenir 20h.
Seulement, si le circuit GSM consomme 100mA en emission, on baisse l’autonomie.
En revanche, on peut gagner en gérant dynamiquement l’alimentation de cette partie. Mais sur le pi lui même, il y a vraiment peu de différences.



Xbox One : Microsoft proposera une télécommande à 25 dollars en mars

Le 20/02/2014 à 18h 35

A voir la tête du bidule, ça ressemble plutôt aux télécommandes à 5€ qu’on peut trouver un peu partout.
à 25€, ils auraient pu mettre un touchpad ou un trackball dessus…


Archos Neon : des tablettes d'entrée de gamme à la définition décevante

Le 01/02/2014 à 15h 51

Pourquoi faire tant d’histoire pour la définition de ces tablettes?
Ou même l’absence de bluetooth?
Certes plus, c’est mieux, mais c’est aussi plus cher!

Est-il choquant que certains proposent des tablettes full HD, ou 2500*1500,
a 600-700€ et que d’autres proposent des tablettes plus simples pas cher?

Pour ma part, je trouve très bien qu’il y ait des produits simples et pas chers.
Tout le monde n’a pas l’utilité d’une tablette ultra HD et ultra chère.

Ce bidule suffira très bien pour tout un tas d’usages (regarder un film dans le train, consulter un peu de doc en faisant une bidouille, etc) sans coûter un bras.

Et en retour, je vous pose la question : vous faites quoi d’un écran très haute définition sur une tablette qui justifie de dépenser des centaines d’euros pour l’avoir?

Après je ne suis peut être pas représentatif de la population, puisque je ne suis pas non plus prêt à mettre 500€ dans un smartphone sous prétexte qu’il est en haute résolution et très puissant.


The Elder Scrolls Online ne nécessite pas d'abonnement PlayStation Plus

Le 30/01/2014 à 18h 05






Ellierys a écrit :

Tu ne payes pas pour un accès au web, mais pour la fournitures d’un bouquet de services autour de cet accès web (jeu en ligne, streaming, réseau social dédié à la console tout ça tout ça…)


Bon, ça c’est ce qu’a le client qui s’abonne et qui veut utiliser ces services. Mais dans le cas de elder scrolls online, il semble que Betheseda fasse ses serveurs lui même, non?

Dans ce cas, pour quelle raison le client doit payer microsoft pour un abonnement?

On est obligés d’utiliser une API réseau spéciale pour acceder au réseau, depuis un jeu? qu’est ce qui empèche betheseda de simplement ouvrir une socket dans le code de son jeu, se connecter à ses serveurs, et ne pas s’intérésser aux bidules de microsoft?

Parceque jeu en ligne, c’est pas microsoft qui fournit le service non? pour le streaming, ils font quoi dans l’affaire? ils hostent les serveurs qui permettent le streaming? quand au réseau social… je vois pas bien en quoi ça vaut 5€/mois o_o




Netatmo : la station météo s'ouvre aux autres objets connectés avec IFTTT

Le 27/01/2014 à 16h 24






TZDZ a écrit :

À moins d’avoir plusieurs arbres dans ta chambre, la quantité de dioxygène consommé par la respiration des plantes est clairement négligeable devant tous les autres consommateurs possibles. La respiration des-dits humains notamment. Si tu as l’impression d’étouffer le matin en te levant, tu as vraiment un problème. Soit respiratoire, soit des solvants dans ton meuble de chevet, qui sait.

C’est fou les contre vérités pseudo scientifiques qui courent comme ça. Ce sont les plus dangereuses car elles semblent logiques.


Merci d’avoir relevé, ça m’énerve aussi de lire ce genre d’idées reçues partout :)

Sinon, pour ceux que ça intéresse, plutôt que d’acheter des produits hyper chers, qui utilisent des formats propriétaires, un service internet pas nécéssairement pérenne, l’exemple cité est TRES facile à réaliser, pour moins de 50€.

Un raspberry pi, un module CO2, et deux trois composants, et c’est bon!
Et tant qu’à faire ça, autant rajouter un module CO, une sonde de température, un hygromètre, et un capteur de pression atmospherique, et on s’en sort pour à peine 60€ (et je compte large), pour un système complet, programmable, réalisé en à peine une après midi, extensible, indépendant d’un quelconque service externe potentiellement écouté par on en sait qui…

Si ça vous intéresse, on peut même faire un howto dans le forum…



SSD : OCZ est officiellement une filiale de Toshiba

Le 23/01/2014 à 15h 56






Kyuuzo a écrit :

Tout à fait d’accord, ceci étant dit, la “mauvaise réputation” d’OCZ c’est pour les gens qui comme nous ont acheté leur SSD tôt, les dernieres générations n’ont pas eu autant de problèmes.
On parle donc d’un public averti qui sera aussi au courant du rachat et donc de la montée en puissance.
Le seul tort qui pourra être encore fait à la marque (si ils sortent des produits stables j’entend) sera les pseudos geek des années 2010 qui auront été déçu par la première gamme est qui restera butée sur l’ancienne réputation.


C’est juste complètement faux ce que tu racontes… Ils continuent à faire des produits de qualité déplorable du point de vue de la fiabilité. J’en prends pour preuve les taux de retour SAV de OCZ en 2013 :
http://www.hardware.fr/articles/893-7/ssd.html

en résumé les taux de retour SAV des SSD (entre parenthèses l’année d’avant) :




  • Samsung 0,05% (contre 0,48%)


    • Plextor 0,16% (N/A)

    • Intel 0,37% (contre 0,45%)

    • Crucial 1,12% (contre 1,11%)

    • Corsair 1,61% (contre 1,05%)

    • OCZ 6,64% (contre 5,02%) / 2,92% sans les Petrol/Octane SATA 2 (contre 3,05%)

      Donc, ça s’est empiré par rapport à la période précédente… Pire encore :


      Si on regarde les modèles avec un taux de retour supérieur à 5%, OCZ truste le classement :


    • 52,07% OCZ Octane SATA 2 128 Go

    • 45,26% OCZ Petrol 128 Go

    • 44,76% OCZ Octane SATA 2 64 Go

    • 40,57% OCZ Petrol 64 Go

    • 10,23% OCZ Agility 4 256 Go

    • 8,70% OCZ Octane SATA 3 256 Go

    • 7,41% OCZ Agility 4 64 Go

    • 6,85% OCZ Agility 4 128 Go

    • 6,59% OCZ Agility 3 90 Go

    • 5,56% OCZ Octane SATA 3 128 Go


      Donc en gros OCZ truste le top 10 des produits les moins fiables, et avec des modèles a 52%, c’est assez catastrophique…

      Heureusement, sur 2013, ça s’améliore, mais du coup ce n’était pas qu’en 2010 qu’ils avaient des problèmes… ça a duré au moins jusqu’à octobre 2012, et on a des records tout simplement honteux de + de 50%!

      Bref, il n’y a pas que les “pseudo geek de 2010” qui ont des soucis avec OCZ manifestement…

      Pour ma part les produits OCZ sont bannis pour TRES longtemps… D’autant plus que ce ne sont ni les moins chers, ni les moins performants… Donc pourquoi prendre des risques chez eux?

      Expérons que Toshiba redresse un peu la barre :)
      Mais bon, avec toutes les autres bonnes marques qui font des disques rapides, fiables, pas trop chers… (plextor, samsung, crucial, et même sandisk)