votre avatar

sky99

est avec nous depuis le 13 septembre 2002 ❤️

248 commentaires

Le 20/01/2014 à 15h 57







Ohmydog a écrit :



Je peux difficilement confondre les deux garanties, sachant que c’est quasi mon pain quotidien.

Si je comprends bien, Apple est vraiment une entreprise idiote… Raison pour laquelle ses portables sont considérés comme les meilleurs, ou alors parmi les meilleurs…





Bonjour!

Si tu trouves ce que tu cherches chez Apple, tant mieux. Mais tu ne peux pas dire que c’est “considéré comme les meilleurs”…

Certains apprécient les produits Apple, d’autres les trouvent très désagréables…

Dans mon labo, pratiquement personne n’a de machine Apple. Et dans ceux qui en ont, beaucoup râlent…



Donc bref, on peut dire que certains utilisateurs trouveront que ce sont de bonnes machines, d’autres les trouveront nulles…

Justement, à mon avis, pour ce que tu énonçais, à savoir les mémoires soudées et autres qui font des machines compactes, ce qui ennuie une partie des usagers qui ne peuvent rien toucher dans leur machine.



Ceci dit, pour la compacité, certains y arrivent en laissant une machine un minimum réparable, configurable, etc. A mon sens, cette politique du tout collé chez Apple est purement commerciale : on le voit d’ailleurs au fait qu’ils s’amusent à inventer de nouvelles formes de vis pour rendre l’ouverture difficile.



Maintenant, entre une machine Apple, et une Acer… je préfère encore la Apple (enfin, faut voir si on me laisse installer mon linux en paix sans bidouiller <img data-src=" />)



J’ai lu des commentaires disant que Acer ne peut être considéré comme une marque peu fiable, parceque seules certaines séries sont touchées. A ce que je vois ils ont PLEIN de séries touchées… De même, dire que tout vient des mêmes usines et donc que tout est de fiabilité équivalente, c’est erroné!



Si tout vient des mêmes usines, et que celles ci conditionnent la qualité, c’est que tous les appareils devraient avoir la même qualité. Or, il y a des séries pourries, et de très bonnes. La différence se fait forcément ailleurs. Sur la conception par exemple. Du coup, quand on enlève des composants pour économiser dessus, qu’on sous-dimensionne la ventilation, ou qu’elle est mal conçue, qu’on met des condensateurs pourris, que le chassis est mécaniquement mal conçu, etc… On a forcément des pannes, de la casse, etc…



Impossible de dire que toutes les marques sont égales. Certaines dépensent clairement plus en R&D sur des designs, et cela se retrouve même sur l’entrée de gamme.

Et il suffit de regarder les taux de retour SAV publiés sur hardware.fr pour voir la différence…



Un exemple flagrant : OCZ est une très mauvaise marque de SSD si on s’appuie sur la fiabilité moyenne. D’autres marques ont parfois un modèle avec 2-3% de retour SAV, mais OCZ à DES modèles à plus de 40%…

Dans le même temps plusieurs marques sont à moins de 1% de SAV sur l’ensemble de leurs ventes, quand OCZ à un taux de SAV à deux chiffres depuis plusieurs années…



Bref, il y a des marques statistiquement plus fiables que d’autres. Ou plutôt des marques statistiquement moins fiables que la majorité, comme OCZ et ACER.



Je sais que ce n’est pas un échantillons valable significativement, mais pour ma part, j’ai vu plus de machines ACER bousillées que de toutes les autres marques réunies. Pourtant je côtoie beaucoup d’informaticiens, peu achètent des ACER, et tout le monde achète des machines plutôt moyen ou haut de gamme. Y’a toujours un truc qui lache sur le laptop (le plastique fendu, le connecteur qui déconne, un port USB qui meurt, etc), mais généralement la machine reste utilisable. Avec les copains en Acer, j’ai vu bien plus de problèmes critiques rendant la machine inutilisable…



et sur le “les acer sont en panne, car maltraités”, pour ma part je “maltraite” mon matos, au sens ou je lui en demande beaucoup, sans en prendre un très grand soin. Pourtant mes machines ne meurent pas avant que j’aie eu le temps d’en changer (je parle de laptops bien sur! Qui sur PCI achète une tour de marque? ^^)


Le 20/01/2014 à 14h 38

Je trouve que ça progresse tout de même… Finalement, c’est un peu des smartwatches, en beaucoup beaucoup moins cher…



Finalement, qu’y a t’il de moins que dans les smartwatches à 300-400€?



Dans l’ensemble sinon, je vois pas spécialement de raisons de crier sur ce genre d’appareils, c’est finalement une montre, avec des fonctionnalités supplémentaires…



C’est pas moins utile qu’une montre classique, dans laquelle pas mal de monde met une/des centaines d’euros…

Le 14/01/2014 à 03h 48







linconnu a écrit :



Je ne comprends pas trop l’intérêt pour Lenovo. Ils sont très mauvais. Sur leur site quand on clique sur la série T qui correspond aux portables haut de gamme d’après eux on tombe sur des GeForce 730 !!!! On ne peut même pas faire tourner Battlefield 4 correctement avec leur meilleur modèle.





Je sais pas pour les machines gamer, mais pour les machines de boulot, ils font du bon matos. Au contraire d’autres fabricants qui fournissent des claviers en carton, des charnières ultra fragiles, des dispositifs de pointages pourris, eux fournissent des machines solides, fiables, avec des composants accessibles, et avec des prix normaux.



J’ai pris un ultraportable Lenovo, et je ne suis pas déçu. Il est léger, rapide, et solide, avec un autonomie très importante pour pas trop cher. Dans la concurence, je n’avais pas vu grand chose qui me satisfasse dans le même ordre de prix…



Par contre mon coup de geule, y compris contre Lenovo, c’est les dalles en 1300*700 qu’ils persistent à mettre partout, y compris sur des machines haut de gamme à 1000€. Au moins, on commence à trouver des dalles mattes, mais quand même c’est grotesque de voir ces résolutions pourries inférieures à celles des smartphones…


Le 14/01/2014 à 03h 35

Project Zomboid est bien fini, et très stable, jouable, leur alpha est largement au dessus des versions finales de certains éditeurs.

En revanche, c’est pas un jeu facile ^^

Je sais que c’est un survival, mais moi j’aurais aimé pouvoir reprendre une sauvegarde quand je meurs! (je crois que j’ai plus l’acharnement d’avant <img data-src=" /> )

Le 31/12/2013 à 05h 00







Maxouille-la-fripouille a écrit :









Je crois que je vais arrêter de répondre à tes messages.

Soit tu trolles, soit tu prends tout le monde pour des cons, et dans ce cas, ça revient au même.



Bref, tu as raison, on doit obéir à la vision de Microsoft, les gens qui n’aiment pas W8 sont des cons, etc…



Si ta conception de l’informatique c’est “maitriser W8” parceque Microsoft pense que c’est ce que doit être une interface, tant mieux pour toi.

Pour ma part, je préfère encore me concentrer sur l’utilisation de l’ordinateur pour des tâches concrètes.



Et vu que de toutes façons tu ne réponds pas sur les contre-arguments, ou alors que tu réponds à coté, ça ne mène nulle part.



Je pense que tu ne prends même pas la peine de lire ce que disent les gens, puisque tu penses qu’ils sont tous cons.



Maintenant si quelqu’un pense que tout le monde que tout le monde est con parceque pensant autre chose que lui, il faut se poser des questions…

Mais bon, j’espère pour toi que tu es juste un troll :)


Le 28/12/2013 à 04h 08







Maxouille-la-fripouille a écrit :



Sauf que je n’ai jamais râlé parce qu’il fallait m’adapter à un autre OS contrairement à vous! Pour te dire, j’utilise et j’installe aussi du Linux Mint à des gens qui ont un vieux PC sous XP, et j’ai pas râlé parce que Mint était différent à l’utilisation que Windows: je me suis adapté à l’OS et j’ai appris à l’utiliser sans râler, c’est la grosse différence avec les abrutis qui viennent gueuler que Windows 8 c’est de la merde juste parce qu’ils sont trop c…s pour apprendre à l’utiliser alors qu’ils se disent geeks. <img data-src=" />







Je m’en fout qu’il préfère utiliser XP, c’est son droit! Je trouve juste idiot de rester prostré sur un OS complètement dépassé alors que Vista, 7 et 8 ont amené des améliorations intéressantes dans l’utilisation de tout les jours, en + d’une réelle stabilité et la suppression du défaut qu’à XP de se “pourrir” au fil des mois. Et désolé mais se dire geek et être incapable de s’adapter à un nouvel OS alors qu’on est censé être technophile, franchement c’est affligeant! <img data-src=" /> <img data-src=" />







Navré, mais quand on traite quelqu’un de con parcequ’il n’a pas envie d’apprendre à utiliser windows 8, c’est un comportement pueril, et absolument pas un raisonnement.



Quand à l’histoire de technophile ou geek, c’est un argument très spécieux.

C’est pas parceque microsoft à décidé que ça devrait être comme ça que je dois suivre leur avis, geek ou pas.



Pour ma part, je n’ai PAS ENVIE de m’adapter à leur nouveau système, qui ne me plait pas. J’estime qu’un OS est à mon service, et pas le contraire.

Pourtant, je pense qu’on peut dire que je suis geek, technophile et tout ce que tu veux (mon métier, c’est la recherche, en informatique, IA plus précisément, certains me connaissent pour ma passion pour la robotique/domotique, beaucoup de mes loisirs sont informatiques, je suis gamer -et pas casual-, rôliste, et j’en passe. Je pense avoir plein de “cases cochées” pour le questionnaire “êtes vous geek”).



Bref, on peut ne pas être d’accord avec la vision du produit de microsoft, sans être un idiot. On peut préférer telle ou telle version, et d’ailleurs, c’est assez logique de voir que les développeurs reviennent souvent sur certains choix qu’ils tentent d’imposer de force aux usagers.



Si une fois de plus on laissait facilement la possibilité de mettre le “mode classique”, ça ne serait pas un problème. Mais cette volonté d’imposer une interface clairement pensée pour du tactile à des desktops est un peu chiante.



Et je pense que ça fera comme pour gnome3 ou au fur et à mesure, ils remettent les trucs qu’ils avaient virés.





Mais bref, sur le principe général, tu peux ne pas être d’accord avec un tel ou un tel. Mais considérer que tous ceux qui n’ont pas envie de s’adapter à W8 sont des cons, c’est très limite. De même, trouver que quelqu’un qui reste sous XP est idiot est limite également.



Il est peut être temps d’arrêter de considerer l’OS comme une fin en soi, mais comme un simple outil. Un OS idéal pour moi, il ferme sa g, et fait simplement et rapidement ce que je lui demande. Il ne m’impose pas des démarches obligatoires, et un réaprentissage d’habitudes d’utilisations simples et bien établies.



Pour ma part, plutôt que de réapprendre à utiliser mon OS, je préfère apprendre un nouvau langage de programmation, un nouveau concept, un nouvel outil qui a une utilité concrète. N’oublions pas que le boulot de l’OS c’est de te permettre de faire tes trucs…


Le 27/12/2013 à 03h 00

Je crois qu’il faudrait que certains arrêtent de gonfler les gens avec leur vision de l’informatique, des geeks, etc.



Maxouille, si l’autre préfère XP, je vois pas de quel droit tu te permets de juger ça con, de l’exclure de ta secte “geek”.

A une époque ça voulait dire un truc, maintenant…



Bref, les jugements de valeur sur une personne à cause de ses choix d’OS, c’est profondément stupide.



Tant mieux pour ceux qui aiment W8, n’empêche, je vois mal la raison qui poussait Microsoft à rendre tous ces trucs OBLIGATOIRES. C’est quand même un des trucs historiquement cool sur un PC par rapport aux terminaux divers, c’est qu’on peut habituellement configurer et choisir.



Et puisque vous parlez de Linux, eh bien encore une fois le même problème s’est présenté avec Unity ou encore Gnome 3. Du coup on a mis KDE, XFCE, ou encore d’autres gestionnaires de bureau. Certains ont fait des fork de gnome2.

Bref, on a eu le choix (pas toujours sans peine, mais tout de même).



Sous windows, on a pas ce choix. Dans 5 ans, si microsoft décide qu’un PC ça doit ressembler à l’interface de la Xbox, les utilisateurs seront coincés.

Alors à moins que SteamOS prennent réellement, ça risque d’être chiant pour jouer à certains jeux (tout le reste, je le fais sous Linux).

Le 26/12/2013 à 15h 58

Je ne comprends pas la hargne des défenseurs de windows 8?

Quelqu’un teste win8, et ça lui plait. Tant mieux pour lui. Mais pourquoi insulter quelqu’un qui critique?



J’ai essayé une petite réparation sur le laptop de ma cousine, sous windows 8 (ou 8.1, je sais pas trop). J’ai trouvé ça chiant au possible, il me balance sans cesse dans X box live quelquechose, tout ce que je voulais faire prend plein de temps, parceque je dois faire ceci ou cela, car le système est pensé pour le tactile.



Bien, mais moi j’ai une souris, pas de tactile, et je n’aime pas leur interface. Du coup, je fais quoi? je dois passer une semaine à m’habituer?



ça me gène pas qu’ils fassent leur truc. Mais bordel, pourquoi rendre ça obligatoire? J’exagère un peu, mais il faut quand même bidouiller pas mal de trucs pour retrouver une interface “correcte” selon mes critères…



En gros ça fait comme Unity, je fais tout plus lentement… Mais au moins à l’époque d’Unity, j’ai pu mettre GNOME (manque de bol, c’était pareil <img data-src=" /> donc direction KDE , ou XFCE :p)



A mon avis, y’a un truc derrière cette stratégie chiante, du genre imposer ça sur les PC pour que les gens s’habituent à voir les tuiles et veuillent la même chose sur leur téléphone/tablette



En tous cas, en lisant le dossier, je vois de nombreux points qui me déplaisent (cette histoire de compte, ça ne me plait pas du tout)



Je ne vois pas pour quelles raison les Darth21 et autres se permettent de décider que ceux qui n’aiment pas sont des “pseudo geeks”, pour prendre le moins virulent des qualificatifs.



Quand à l’Inpacticien qui dit qu’il n’aidera pas son oncle sous windows 8, bah je comprends. C’est déjà chiant de dépanner les machines des gens, mais si en plus c’est sur un système que l’on trouve pénible et lent…





Et je reviens sur les remarques du genre “vous ne savez pas vous adapter”.

Pour moi une bonne interface, c’est une interface pour laquelle on a pas BESOIN de s’adapter. Les “trucs” devraient être là ou ça semble logique. A moins qu’il ne s’agisse de logiciels spécifiques genre CAO, ou forcément l’interface est lourde est complexe, puisque très technique. Mais pour des tâches du quotidien, je pense qu’il est totalement possible de faire des interfaces simples, efficaces, rapides, et requérant l’apprentissage d’un minimum de paradigmes.



J’ai moi même travaillé sur ce type d’interfaces, puisque pour mes recherches, j’ai du diriger la conception de jeux tactiles pour très jeunes enfants. On a réussi à se débrouiller pour que ce qu’un enfant de deux ans tend à faire soit la bonne façon d’interagir.



De la même façon, on peut faire une interface s’appuyant peut être sur quelques paradigmes connus, et qui semble logique au plus grand nombre. On peut toujours laisser le choix à ceux qui n’aiment pas de changer le comportement, sans les forcer à apprendre une modalité d’action qu’ils n’aiment pas.



Bref, hors cas spécifiques, le système devrait s’adapter à l’utilisateur, et pas le contraire.

Le 19/12/2013 à 11h 00

Pur ma part, je commande presque tout sur LDLC.

Les prix sont largement plus bas que ceux proposés en Guadeloupe, et même avec les FDP c’est souvent moins cher. De toutes façons leur catalogue est rempli de produits difficiles à trouver ici.



Par rapport à d’autres boutiques, comme matériel.net je ne trouve pas une diffiérence de prix significative, parfois un truc est plus cher, parfois moins cher…



J’aime bien matériel.net également, mais il y a un point à cause duquel je ne commande plus que chez LDLC : ils fournissent une garantie de 2 ans pour quelques euros, au lieu de 1 an chez materiel.net ou ailleurs.



Même quand le constructeur garantit le produit 2 ans ou plus, je préfère la garantie LDLC :

quand j’ai un souci, je fais un ticket, je renvoie, et ils se débrouillent sans me dire que “c’est de ma faute”, que j’ai “mal utilisé le produit” ou que “ce n’est pas dans la garantie” comme peuvent le faire les fabricants.



En plus la garantie est “automatique” : j’achete mon bidule, et j’ai deux ans à partir de la livraison, sans avoir à remplir un formulaire, scanner une preuve d’achat ou un truc du genre. Même pas besoin d’envoyer les factures, ils les ont déjà.



Il y a même l’option “garantie 5 ans”, mais là c’est assez cher! Mais bon, 5 ans de garantie c’est assez rare, un jour j’imagine que pour certains produits je pourrais être intéréssé…



Mais ça serait bien que materiel.net fasse cette option de garantie, car ils ont parfois des produits qu’on ne trouve pas ailleurs…

Le 18/12/2013 à 03h 44







gloutch a écrit :



Perso, pour 800 euros (en fait moins), un petit PC AMD athlon ii x2 250 monté maison et freenas sont bien plus rapides et surs. OK sans HDDs dans de jolies baies hotswap, mais pour la maison on peut se permettre d’éteindre la machine 5 minutes pour changer de disque.



Une remarque en passant, l’informatique aime les puissances de 2. Mais 8, en raid 5 ou 6, ça ne laisse que l’équivalent de 7 ou 6 disques de données. N’aurait-il mieux pas été préférable de faire une version 10 HDDs.



PS: Avec la capacité actuelle des disques, le raid 5 montre ses limites car en cas de défaillance, le temps de reconstruction à 0% de charge peut dépasser les 24h et il n’est pas rare d’avoir une deuxième panne et bye bye les datas.



PS2: Les HDDs grand publique sont caractérisés à une erreur tous les 1e14 bits en moyenne. Cela fait 11TiB environ. 8 disques de 4TiB ont donc 3 bits d’erreur non détectés en moyenne ! Du coup avoir une seule parité est théoriquement insuffisant pour garantir l’intégrité des données: le Raid5 pourrait détecter l’erreur en vérifiant systématiquement les parités à la relecture (ce qui n’est jamais fait en réalité) mais sans pouvoir dire si l’erreur est dans les données ou si c’est la parité qui est fausse donc sans pouvoir corriger l’erreur.

(Ceci fait l’objet de controverses car avec l’utilisation de CRC les erreurs sur 1 bit isolé sont impossibles au niveau secteur et le passage à des secteurs de 4KB soit 32768 bits augmente encore la granularité des erreurs. Notons tout de même que la RAM n’est pas parfaite, qu’il peut y avoir des fluctuations d’alimentation, bug de firmware, particule cosmique de haute énergie… )







Je te rejoins pour le home made.

J’irais même plus loin, avec un quad ayant une bonne gestion de l’énergie, vu le faible coût des quad coeurs.



Ta réflexion sur le Raid5 est intéréssante, j’ai un NAS maison pour lequel je prévois de faire du raid depuis un moment, je me posais justement ce genre de questions.

Mon idée actuelle est plutôt de faire du mirroring de chaque disque (les HDD sont en sata, et les disques “mirroir” sont en USB3). L’idée serait de pouvoir sortir le backup USB sans mettre en danger le HDD principal, et en cas de problème de pouvoir intervertir les disques.



Je sais que c’est moins efficace en terme de volume disponible, et je pensais justement au raid5. Mais celui ci est quand même moins flexible…


Le 17/12/2013 à 18h 28

Je dis ça comme ça, mais le prix me semble particulièrement exhorbitant, pour un produit si simple (des boutons, du bluetooth…)

Quand à la batterie, 150mAh, c’est excessivement faible.

à peine de quoi alimenter une LED quelques heures…

Pour le prix, une 2000mAh eut été préférable (ça vaut à peine 10€), et ça servirait à quelquechose…

Le 02/12/2013 à 12h 42

Tout le monde parle de piquer le colis…

Mais vous oubliez le drone, qui vaut largement plus que la PS4 et sa télé à mon avis!



Un quadrirotor capable de porter 2.2kg, pendant 30 minutes aller et 30 minutes retour, ça ne court pas les rues…



Quand on voit le prix de vente des AR-drones qui ont 15 minutes d’autonomie au plus, et quelques grammes de capacité d’emport, celui la doit bien valoir X milliers d’euros!

Le 25/11/2013 à 04h 30

Vu les réponses, je pense que je vais passer a Opensuse une fois ma soutenance effectuée :)



Par contre Slackware, je suis toujours pas convaincu pour un usage desktop ^^



Pour un serveur en production, pourquoi pas?

Mais pour mon laptop de boulot, si je dois à chaque fois revenir aux fondamentaux….



Le point positif, c’est que c’est sans doute du bon gros standard bien propre. Sur ubuntu, j’apprends à faire certains trucs, mais inutiles ailleurs, parceque les autres fonctionnent normalement…



Mais bon, je me plains, mais j’ai steam sur mon laptop sous ubuntu, ça fonctionne sans que je n’aie rien installé ni configuré, alors qu’il y a 5 ou 10 ans, pour jouer, il fallait se faire ch* avec wine, cedega ou winex, configurer des trucs et des bidules, et ajouter des hacks/extensions de wine pour supporter ceci ou celà…



Le support de l’accélération 3D “out of the box”, c’est quand même pas mal…

Fini le temps aussi ou il fallait configurer xorg.conf à la main pour avoir un truc optimisé…



Le point négatif, c’est que si je veux configurer xorg.conf, bah deja il est plus la ou je le cherchais, et il est généré automatiquement. Du coup, un truc que j’aurais pu tenter de bidouiller par le passé, bah je n’ai AUCUNE idée de la marche à suivre maintenant ^^



En un sens, c’est chouette que ça marche facilement, mais d’un autre coté, je finis par me sentir comme sous windows : quand ça marche, je sais pas pourquoi, et quand ça marche pas, je sais pas non plus pourquoi… J’aimais bien le fait d’avoir un certain contrôle sur le système. On reste bien sur loin de windows ou on ne peut pas toucher tout un paquet de trucs, mais quand même…



Enfin, quand bien même, je n’échangerais pas ce contrôle contre la somme astronomique d’emmerdes qu’on avait à l’époque…



Je me souviens du plus beau message d’erreur que j’aie pu voir, ou la distrib m’affiche à l’écran :

unable to start X, no screen found



Bon, je sais qu’historiquement ils pouvaient sortir les messages sur une imprimante et tout, mais quand même ça faisait drole quand on t’affiche à l’écran que tu n’as pas d’écran :p

Le 22/11/2013 à 00h 56







paradise a écrit :



Hors-sujet : Je signale que Slackware 14.1 vient juste de sortir également., après la 14.0.



Ce n’est pas une distribution « grand public », il n’y a par exemple pas de gestionnaire de paquets, et pourtant, c’est drôlement simple à administrer, on fait toute une histoire sur les distros « yaka » et pourtant…. <img data-src=" />



En fait, pour apprendre Linux, c’est sans doute la meilleure (il y a bien ArchLinux, mais bon là c’est peut-être un peu duraille quand même pour le néophyte), plus proche de UNIX et c’est ça qui est bien, toujours pas de systemd et c’est bien aussi, qu’on pourrait rapprocher de Debian sur pas mal de points.







Je me suis toujours demandé l’intérêt de Slackware. Ubuntu, c’etait la facilité, idem pour mandriva. Fedora, les derniers paquets encore tout chauds sortis du four. Debian : stabilité et solidité max.

Mais slackware, c’est quoi sont “point fort”?



Si tu dis que c’est une distrib “sans”, quel est son intérêt?

Quitte à prendre une distrib chiante, autant prendre Debian non?



SInon, j’aimais bien ubundu du temps ou ils se basaient encore sur Debian.

Mais depuis quelques années ils ont décidé de tout chambouler dans tous les sens, et en plus y’a eu Unity et Gnome 3 par dessus le marché…



J’avais l’habitude de rester sur ubuntu, car elle était facile à mettre en place, elle fonctionnait bien et elle était configurable.



Je sais pas pour vous, mais je trouve que depuis quelques versions, on peut configurer bien moins de choses (par exemple, le cube 3D et tout ça, c’était chouette! Ou est compiz-manager maintenant?), et j’ai le sentiment qu’ils nous la fond à la gnome : il faut l’utiliser comme les dev l’ont voulu.



J’installe toujours plusieurs bureaux. Avant, je mettais KDE, gnome, XFCE, et parfois fluxbox ou un truc léger du genre.

Je continue à le faire, mais depuis deux trois versions, c’est systématiquement le bordel. Y’a toujours un programme qui râle, ou un problème de ci de là…



De manière générale je trouve Ubuntu assez bugguée. J’ai mis ça sur le dos de mon ancien laptop, et du fait que je ne mettais pas à jour (jusqu’à finir ma rédaction de thèse. J’ai déja fait des MAJ qui m’ont tout cassé, avec un latex qui ne marche plus, les outils de compilations qui déraillent, gnuplot qui change complètement… quand c’est pas toute la distrib qui se vautre!).

Mais j’ai un nouveau laptop, j’ai installé la derniere version, fait les mises à jour, et j’ai régulièrement des “rapports de bug” qui poppent…



Et je ne comprends pas cette manie de nous empêcher de configurer des trucs. Mais ça, c’est la faute de gnome3 surtout. Avant, en faisant un clic droit sur un bidule, on trouvait des propriétés ou des réglages. Là, le clic droit fait souvent la même chose que le clic gauche, et je ne parviens à rien configurer.



Et le plus fun, c’est que quand je veux faire un truc en ligne de commande, plus rien ne marche comme avant. Les commandes ont changé, smbfs est déprécié, tel ou tel bidule ne marche plus… Tout n’est pas de la faute d’Ubuntu, je le conçois. Mais ils renforcent le truc en s’amusant à remplacer des choses standard par leur tambouille, déplacer des fichiers, etc…



Et je ne parle même pas du gestionnaire de paquets graphique tout pourri par défaut, je dois à chaque fois réinstaller l’ancien!





Bref, je crois bien que je vais installer OpenSuze, dont chaque install m’a laissé un très bon souvenir (je me rappelle que c’était la seule distrib à une époque qui me permettait de configurer tout ce qui m’intéréssait depuis son panneau de configuration, y compris samba et tout. Et sur ce point par exemple : pourquoi ubuntu à viré l’outil de configuration automatique de ça? avant je faisais un clic droit sur un dossier, puis partager, il me disait qu’il manque tel paquet, l’installait, et hop, je pouvais régler mon partage, et les droits d’accès. Maintenant faut se retaper smb.conf, et toujours tripatouiller les droits de ceci, cela et configurer 10 000 truc. Quand j’étais en licence, ça m’amusait, et je me faisais fort de tout faire en ligne de commande. Mais vu que ça change tout le temps, ce que je savais faire ne marche plus, et j’ai beaucoup moins envie de passer 3 heures à faire marcher tel ou tel bidule pour pouvoir vérifier si mon script rsync fonctionne toujours sur cette version….)





Bref, vous en pensez quoi vous, de l’évolution d’ubuntu ces deux trois dernières années?



Et les utilisateurs d’OpenSuze, vous êtes pleinement satisfaits?


Le 18/11/2013 à 15h 23

Salut!

C’est intéréssant leur offre!

Maintenant, la question est de savoir ce qu’ils utilisent?



Intelligence cognitive artificielle, ça représente quoi?

Des réseaux de neurones? Si oui, quel type?



en cherchant, je trouve qu’il fait du calcul distribué. Bon, ça, on s’en doutait.

Mais maintenant la question est de savoir quel est le modèle cognitif derrière?



une agrégation de divers modèles connexionnistes, évolutionistes, ou systèmes apprenants?



Il faudrait que je fasse des recherches sur les bases de données d’articles scientifiques, ils ont bien du publier des trucs dessus :)


Le 29/10/2013 à 18h 24

Mon problème avec ces MAJ, c’est de tout recommencer à 0.

Après la grosse MAJ de terraria (qui est d’ailleurs énorme!)

J’ai fait un nouveau monde, mais je peux y aller avec mes anciens persos, et déplacer des trucs de l’un à l’autre.



Découvrir les nouveautés, c’est amusant, mais tout refaire à 0, chercher

des graines, des bestioles, les reproduire, etc, c’est long et chiant!



SI au moins on pouvait balader des items d’un monde à l’autre!



D’autre part je trouve les maps de minecraft trop vides.



Avec certains mods, ça rajoutait des gros dongeons intéressants à explorer, des châteaux , des villages de PNJ avec des quetes, plein de variétés d’arbres, fruits, etc…

Et du coup c’était intéréssant de se balader pour découvrir de nouveaux trucs.



Alors que là, j’ai surtout l’impression de me balader dans un grand monde vide hormis les monstres et moi, et de devoir recommencer sans cesse des tâches rébarbatives (couper du bois, planter du blé, attendre que ça pousse, aplanir tel endroit pour construire un bidule, construire des clotures pour que les animaux n’aillent pas sauter sur les cultures…





Je trouve que le gros intérêt de Terraria c’est que ça va plus vite. On peut passer du temps a construire de gros trucs, mais c’est nettement plus rapide de trouver les ressources, de construire ce qui est requis, etc…

Et en contrepartie, on a beaucoup plus de temps pour explorer, essayer des trucs, bref, s’amuser…

Et comme le contenu est très très supérieur en quantité (et pour beaucoup, en qualité, serai-je tenté de dire), du coup on joue plus vite, mais tout aussi longtemps, puisqu’il y a bien plus de choses à découvrir.



Bref, j’aime bien minecraft, mais il est trop rébarbatif, répétitif sur plein d’aspects. Les mods sont super, sauf que c’est pas toujours la joie de les faire fonctionner. J’ai trouvé des modpacks avec des fonctionnalités très chouettes, mais qui ont commencé à planter au bout d’un moment, ou avoir du lag désagréable (pourtant j’ai un 6 coeurs, 16 go de ram, et le jeu est sur SSD!)



Et du coup depuis la sortie de la 1.2 de Terraria, je n’ai même plus lancé Minecraft. Quand en plus on sait que Starbound approche, je me demande même si j’aurai l’occasion d’installer la maj 1.7 de Minecraft ^^



Aux autres joueurs de Minecraft, quelles sont vos impressions sur cet aspect répétitif?

Avez vous des bons modpacks à conseiller? j’utilisais YogBox, mais il est plus maintenu, et il y a des bugs, et j’en ai testé d’autres comme tekkit qui ne me plaisaient pas trop, parcequ’il n’y avait plus les mods comme Millenium pour les PNJ, villages et autres.

Le 22/10/2013 à 13h 12

Tiens d’ailleurs un autre exemple :

il y a eu 15 meurtres sur Marseille, depuis le début de l’année. Ville de 1 million d’habitants. On en fait tout un débat national, et on veut envoyer l’armée.



EN Guadeloupe, 450 000 habitants, 37 meurtres sur la même période. Pour moitié moins de pop! Et on en parle pas du tout au national.



Autre exemple : quand il neige un peu à Paris, ça fait 3 jours de reportages dans les journaux nationaux. Je suis pas un spécialiste de la neige, mais il me semblait que la neige en hiver, c’est un truc un peu normal!

Quand ici on a un cyclone (donc pas une simple tempête! car oui, ici une tempête tropicale n’est pas si extraordinaire que ça, y’a même des types qui vont surfer pendant), on en parle à peine 2 minutes dans les journaux.

Idem quand on a eu des inondations record, toute la Guadeloupe était sous des tonnes d’eau il y n’y a pas si longtemps, et pas un mot sur les JT nationaux.



Bref, aux Antilles, on a réellement l’impression de ne pas être en France… Sauf peut être, légèrement, aux élections quand les candidats à la présidence nous courtisent ^^



Bon après, je dis que les journaux ne parlent pas des trucs graves qui surviennent en outre mer, mais bon… Quand on voit qu’ils ouvrent leur journal sur le petit bobo du footballeur fétiche, et parlent longtemps après de la dernière délocalisation sauvage en France, ou de la dernière catastrophe causant plein de morts dans le monde, on voit les choix éditoriaux de ces JT ^^

Le 22/10/2013 à 12h 54







NiCr a écrit :



Ne pas mélanger les torchons et les serviettes.



A part des problèmes bureaucratiques, j’ai du mal à comprendre l’origine de limitations concernant le dématérialisé.



Par contre, pour les objets physiques, la problématique est toute autre.



Un habitant des DOM devrait aller sur Amazon.fr, et ce qu’il est susceptible d’y commander se trouve dans des entrepôts en Métropole.



La logistique est complètement différente entre une livraison Métro-Métro et une livraison Métro-DOM. Et si ils livraient dans les DOMs, les frais de ports seraient tellement élevés qu’ils en seraient dissuasifs.







Non mais c’est faux hein ^^

Amazon livre en guadeloupe, et les FDP ne sont pas si élevés :)

Je commande sans cesse des trucs sur toutes sortes de sites ayant les entrepots en France continentale (et je réside en Guadeloupe) et selon

le vendeur, les FDP sont corrects ou pas.

Mais amazon, c’est raisonable!

Bien sur tu prends pas un livre, sinon c’est cher pour lui tout seul. Mais le prix ne monte pas tellement quand tu en rajoute d’autres!



D’autre part, les trucs sont tellement chers ici que c’est souvent plus rentable de commander.



Le seul souci c’est que quand les colis dépassent 200-250€, la douane les taxe, et là c’est désagréable.

(et par chronopost c’est SYSTEMATIQUEMENT taxé ^^ )



Pour le problème des eBook, c’est pas le premier truc du genre aux antilles…

J’ai un abonnement chez orange, en guadeloupe.

Quand je vais en France continentale, orange me considère comme ayant un autre opérateur qu’eux. Du coup les points de fidélité sont inutilisables, et le mobile orange caraibes que j’avais n’était pas compatible avec les puces sim orange “normal”, et le mobile orange “normal” que j’ai pris à 1€ incompatible avec la carte SIM orange caraibles…



Il y a aussi divers trucs du genre sur les eStores, qui ne veulent pas nous laisser acheter aux conditions de france, et pas mal de services qui font des histoires.



Par contre j’ai lu quelqu’un qui disait qu’on est sur le steam US, c’est faux, je suis sur le steam FR. (sinon je paierais moins cher, avec les prix en dollars… )

Mais il me semble qu’au début j’ai payé en dollars donc c’est possible que ça aie été le cas !


Le 06/10/2013 à 19h 04







yeagermach1 a écrit :



Pour Star Citizen, on a rien vu pour l’instant du jeu même. Quelques vaisseaux, un emplacement ou se poser, .. Planetary on en a deja vu bien plus, et c’est pas non plus super folichon.





Bah star citizen, il y a le hangar, les vaisseaux ou on peut monter et tout. Quand on voit le niveau de détail des vaisseaux, sachant que s’ils ne volent pas encore, ça reste les modèles qui seront utilisés :)



Pour PA, bah “pas super folichon”? pour l’instant, ça a bien l’air du niveau de supcom, en taille, nombre d’unités, échelle, etc… Je ne l’ai pas pris en phase beta parceque

1-je finis ma thèse d’abord <img data-src=" />

2-je préfère avoir la version “finale” :)



En tous cas, ça m’a l’air en tout point au moins au niveau de n’importe quel RTS AAA (même si faut reconnaitre que des STR AAA c’est pas ce qui remplit les étals.)



Pour moi les points ou il y a un retard peut être irratrapable dans l’indie c’est pour faire de grosses cinématiques en images de synthèse à la blizard, ce qui coute hyper cher. Apres, c’est joli, ça participe au jeu, mais si il faut choisir je préfère un meilleur gameplay :)


Le 03/10/2013 à 16h 17

Pour les jeux “qualité AAA”, moi je vois les images de star citizen, le niveau de détails, ça me semble etre du AAAAAAAAA. Or, il ont levé 20 millions, et je suis certain qu’ils n’ont pas tout dépensé.

Le problème viendrait il de la masse énorme (et donc de l’inertie proportionelle) des gros éditeurs?



Je prends un projet comme Planetary Annihilation, avec un financement de 2millions environ est parti pour nous proposer un digne fils spirituel de TA et de Supreme Commander 1.



Peut être que la grosse différence, c’est que ces exemples, ce sont des jeux que veulent les joueurs. Attendus, et développés. Alors que dans le cas des gros éditeurs, c’est plutôt l’inverse : on fait des gros jeux, plein de pub, de matraquage pour faire naître le désir… et comme c’est un énorme projet monstrueux en cout, hommes, ressources, il faut vendre à énorme échelle pour rentabiliser, donc on doit le rendre accessible au plus large public. Du coup tous les fans d’un style spécifique finissent par se désintéresser, et on se retrouve avec des jeux beaux, mais sans saveur particulière… Bien sur il y a des exceptions, par exemple le GTAV à l’air apprécié de tous, et divers gros blockbuster arrivent à être de bons jeux.



Mais bon, je me demande s’il n’est pas plus rentable de faire 10 jeux moins chers, mais qui rencontreront leur public (pas forcément gigantesque, mais déjà rentable), qu’un jeu plus cher que tous les précédents réunis, et qui doit conquérir la majorité des gamers pour être rentable…



Enfin bref, vive le circuit indépendant/crowdunding, qui nous donne des jeux superbes et passionants.

Exemple typique : Terraria, que j’ai payé 2.5€ en solde steam (mais qui coute 10€ en prix normal), ou j’ai plus de 340h de jeu, sachant qu’une groooosse MAJ qui double le contenu du jeu vient de sortir (et bien sur elle est gratuite). Et en crowdfunding, il y a quantité de projets ultra prometteurs (Planetary Annihilation, le nouveau bioware, le jeu “à la fallout” dont j’ai oublié le nom qui a eu un record de crowdunding, Star Citizen, qui a battu tous les records (et je le répete, est superbe, ça risque d’être l’un des plus beaux jeux que j’ai vus ^^), shadowrun returns, etc…

Le 03/10/2013 à 15h 51

Le prix est pas mal, je suis curieux de voir ce que ça donne par rapport au Arduino Yun, annoncé a 100$. Mais il est vrai que j’ai aussi vite fait de coller un atmega sur un Raspberry pi, et j’aurai un équivalent moins cher.







cyrano2 a écrit :





!





On est d’accord, on ne remplace pas un µC programmable par un CPU generaliste, pour les latences et tout. Encore que je suis sur qu’on doit trouver des ARM rapides capables de temps réel. (d’ailleurs dans certains routeurs, il y en a, avec des GPIO, que certains utilisent pour d’autres projets tels des robots)



Pour ton analyse sur les moteurs, pourquoi 1 pwm + 3GPIO? pour un moteur je vois 1PWM pour le enable, et deux autres pour la direction. Sachant qu’avec un driver optimisé, on pourrait passer à 1PWM pour le enable, et 1 GPIO pour la direction (0=backward, 1=forward, et le PWM pour le régime moteur).



Pour ce qui est de l’analyse sur les multiples IC, je ne suis pas non plus du tout d’accord. Sachant que la plupart des échanges de données ne sont sont pas nécéssaires entre tous les noeuds, on a pas besoin de gros bus. Toutes les fonctions dont tu parles (intensité, contrôle de position, etc) peuvent être faits à très haute fréquence par le µC local qui est chargé de surveiller quelques sous-systèmes du robot. Le µC/CPU central n’a pas besoin de connaitre l’intensité consommée par chaque moteur à chaque moment.



Il faut le voir comme un système nerveux, ou de nombreuses tâches sont gérées localement, et ou les informations importantes sont remontées au noeud supérieur.



Maintenant, autre point, sur les bus. En I²C on peut parvenir à plusieurs mbits/s sur le bus. Largement de quoi faire circuler tout un tas d’opérations!



Et d’autre part, tu n’as pas cité un autre bus : le SPI. Or, le SPI est excessivement plus efficace et rapide, et largement à même de supporter ce type de communications.



Bien entendu, si chaque noeud doit communiquer avec tous les autres tout le temps, il y a une taille limite ou ça va coincer. Maintenant, si on optimise bien, on peut aller très loin…



Sachant que pour moi tu as pris une marge extrêmement haute, avec une lecture des capteurs à 1Khz, quand on sait qu’un capteur de distance ultrasons à une fréquence de rafraîchissement de 20hz, et un capteur de distance IR de 400hz….

De même pour les capteurs des roues, vu qu’on parle de phénomènes physiques, il y a une latence sur ces phénomènes!



Je ne dis pas que ça ne sert à rien d’échantilloner si vite, mais dire que c’est un minimum pour un robot réactif me semble excessif.



Enfin, s’il te faut beaucoup de GPIO, il y a des puces pour ça, pour en rajouter :)

Avec un MCP23017 on rajoute 16GPIO, en I²C, avec plusieurs Mhz de fréquence sur le bus, et on peut en chaîner 7 sur le même bus. On a toute une collection de convertisseurs analogique-&gt;digital pour ajouter des entrées analogiques, qui se connectent en SPI ou I2C a haute vitesse aussi….



Pour le découpage en sous tâches, avec l’exemple char justement, c’est loin d’être complexe. Il suffit d’envoyer des commandes temporisée, et de les ré-évaluer régulièrement. Par exemple “tourne à gauche 1ms”, le µC de gauche l’interprete comme “fait tourner ta roue dans tel sens”, l’autre réagit d’une autre façon, et on tourne 1ms. Mais bon dans ce cas, il serait à mon sens plus logique et intéréssant d’avoir justement un µC pour contrôler cet ensemble fonctionnel, et un autre µC pour contrôler d’autres trucs, par exemple les capteurs. Le µC “moteur” reçoit une commande, l’exécute, et le µC senseurs analyse le mouvement via l’accéléromètre ou autre. Sachant que les fonctions de bas niveau comme la lecture de la conso des moteurs reste dans le µC moteur, qui peut interrompre l’action si la conso dépasse un seuil, alors que le circuit des senseurs se fiche de savoir la conso instantanée 1000 fois par seconde :)



Bref, en conclusion, un SOC avec plein d’IO c’est utile et pratique, mais il y a quand même d’autres solutions. Et justement je pense qu’une conception décentralisée en est une très intéréssante qui peut s’avérer plus simple ou plus complexe, plus ou moins éfficace selon les cas… A mon sens il vaut mieux ne pas être absolu dans son jugement :)


Le 03/10/2013 à 14h 50

Bon, Half Life 3, ce sera bien cool.

Mais qu’en est il de HL2:episode 3?

Parceque j’aurais bien aimé cloturer cet arc naratif, avant d’en commencer un nouveau!

J’imagine qu’ils peuvent faire un HL3 qui prend la suite d’épisode 2, mais je trouverais mieux un petit episode 3 pour finir cet arc, avant de commencer une nouvelle grosse saga avec HL3!



Enfin, on verra bien…

Le 30/09/2013 à 03h 19

Je crois pas avoir vu quelquechose d’aussi intelligent et bien pensé dans le domaine des gamepads!*

Il reste à confirmer en pratique l’efficacité dans divers types de jeux, mais franchement, ça m’a l’air super intéressant!

J’en prendrai sans doute une, et très probablement pas que pour les jeux…

Si il y a moyen de s’en servir hors de steam, ça fera un extraordinaire système de commande pour tout plein de dispositifs…



Encore une fois, il reste à voir dans la pratique, mais les idées sont excellentes.

Le concept des pads tactiles avec un vrai bouton, le force feedback qui fait comme la sensation de la molette des logitech, la disposition, l’écran qui a un clic physique…



Au début ça parait étrange, mais on voit qu’ils ont réfléchi à l’ergonomie, et qu’ils ont des solutions à apporter à beaucoup de problèmes des contrôleurs classiques.



Et du coup, le force feedback, qui pour moi est un gadget, prend un sens ici réellement ergonomique, puisqu’il s’agit réellement d’interface haptique et non pas juste de “faire des vibrations quand on touche un truc”.

Le moteur linéaire est une idée très intéréssante, et on peut se demander pourquoi les gros fabricants comme sony avec sa dual shock, qui s’est pris un procès sur le principe, n’y ont jamais pensé…



Du point de vue technique, c’est juste une idée géniale : on sait fabriquer des moteurs linéaires précis, contrôlables en fréquence et intensité depuis des années : les transducteurs employés dans les casques audio. Si maintenant au lieu d’avoir une mebranne vibrante on a une masse, on obtient des trucs très intéréssants… Et je pense qu’on peut pallier au problème de l’inertie en multipliant les acuateurs linéaires…



Du coup, ça fait une technique de retour haptique relativement économique, fiable, ultra précise…



Et la modabilité de l’ensemble laisse présager du bon! Je me demande combien de jours il faudra après la sortie pour voir des projets arduino, raspberry pi, ou autres… Cette machine pourrait être parfaite pour commander un quadricoptère, un bras robotisé, et toutes sortes de dispositifs…



Le seul manque c’est un accéléromètre/gyroscope(voire boussole), mais faut voir dans quelle mesure l’accéléro sert réellement dans les jeux. Ceci dit, c’est une modalité qui peut être ajoutée, et si on peut mapper “accélération brutale vers le haut” sur une touche, ça pourrait servir à ajouter des actions…

du coup on aurait 4 actions rapides disponibles par exemple, pour l’ejection dans un simulateur de vol, un coup sur le coté pour faire une roulade d’esquive, enfin bref, tout un tas d’actions qu’on utilise pas forcément tout le temps, mais qu’on doit parfois faire très vite, d’un geste réflexe…



Bref, je suis réellement emballé.

Je tends à penser que Steam, avec le développement de la scène indie ces dernières années, est un des meilleurs trucs qui soit arrivé au jeu vidéo ces derniers temps. Quand on voit qu’ils se mettent à s’intéresser à l’open source maintenant, c’est très prometteur.

Le 26/09/2013 à 14h 46

Je trouve que vous auriez du mettre une petite explication sur ce que c’est, ou un lien :)

Je vais googler pour savoir ce qu’est la ps vita tv

Le 14/09/2013 à 12h 49







Gwenegan a écrit :



Il existe encore ce jeu ? Je pensais que son développeur avait cessé de faire des mises à jour.

Un peu comme Cube World dont on n’a plus de nouvelles…



Ca me saoule un peu ces jeux indépendants, un concept est posé puis plus aucun suivi… je ne pense pas que je continuerai à en acheter, même si ces deux jeux m’ont permis de passer un bon moment malgré tout.





Hum, je crois que tu as pris l’un des plus mauvais exemples…



Terraria a reçu bien plus de MAJ significatives que beaucoup de jeux AAA.

Les MAJ ont duré un bon moment, avec du nouveau contenu à chaque fois. Et la 1.1 était énorme, en doublant ou plus le contenu du jeu… Et bien sur gratuitement, alors

que si on prend par exemple civilisation, il faut payer 10€ pour un DLC ajoutant deux trois conneries mineures…



Et d’autre part, si je prends la majorité des jeux “non indé”, c’est juste le jeu qui sort, deux trois MAJ pour corriger les bugs, et basta… on a JAMAIS droit à du contenu additionnel si ce n’est pas un DLC payant.

Si on rajoute que le prix des jeux Indie est généralement 3 a 5 fois moindre…



Pour ma part c’est donc plutôt le contraire. J’achète plus des masses de jeux non indie : ils sont souvent chers, ne reçoivent aucun suivi, sont courts, avec une faible re-jouabilité…



enfin bref, en gros pour le “Aucun suivi”, je sais pas ce qu’il te faut…

D’autant plus que le jeu est sorti en mai 2011, et il va reçevoir une énorme MAJ qui pourrait doubler encore le contenu. Des jeux AAA de 2011 qui reçoivent même des MAJ minimes, c’est bien rare.


Le 14/09/2013 à 12h 37







Zadoush a écrit :



J’ai un peu suivi l’avancement de la màj, mais il ne parle pas de version Linux (même juste pour le serveur) malheureusement.

Pour Starbound, je l’ai déjà précommandé il y a quelques mois, j’espérais qu’il ne sorte pas en même temps que la 1.2 de Terraria, ce qui a l’air d’être le cas.





Certes, pas pour cette version, mais ce que je voulais dire, c’est que vu qu’il reprend le dev, à terme, il y pensera peut être?



Maintenant, j’ai lu qu’il parle de Terraria 2, donc faut voir s’ils vont réellement faire beaucoup de MAJ pour Terraria après la 1.2…



Sinon elle sort debut octobre normalement, alors que pour Starbound je n’ai toujours pas vu de date officielle! Dans la préco ils ont annoncé une date?



Le problème pour Terraria, c’est que je crains qu’une fois Starbound sorti, le premier ne perde de son intérêt…



A voir avec les MAJ toutefois!

Mais bon le jeu de chucklefish à l’air juste énorme :)


Le 12/09/2013 à 13h 38







Zadoush a écrit :



Grande question : est-ce que cette sortie sur Android veut dire qu’on aura des binaires Linux pour faire tourner un serveur autrement qu’avec Wine et Mono ? Je sais que c’est pas forcément lié, mais on peut toujours espérer.





Salut!

Je sais que Red (je crois que c’est le pseudo du dev principal) a prévu une MAJ 1.2 bientôt, annoncée comme la plus grosse MAJ du jeu. Donc si ils ajoutent plus de contenu que la 1.1, ce sera énorme…

Du coup il semble qu’il aie repris le développement, après une longue période d’arrêt.

Peut être fera il une version multiplateforme du coup? surtout que steam est aussi dispo sous linux et macos, et comme il a fait le portage téléphone, il a peut être moyen comme tu dis de réutiliser ce travail?



Sinon, je suppose que tu connais déjà, mais il y a Starbound, projet démarré par un ancien de Re-Logic, qui s’annonce comme une sorte de super terraria, avec tout en plus développé, plus joli, plus riche, bref, tous les aspects en mieux.

Et lui, il est prévu multi plate-forme dès le départ!


Le 27/08/2013 à 17h 30







darth21 a écrit :



En même temps il le dit lui-même, ceux qui jouent déjà en ligne ont un abo live gold, donc pour un jeu de plus ou de moins … C’est pas le fonctionnement du live qui est à remettre en cause, ça fonctionne très bien comme ça depuis des années, mais plutôt sa politique tarifaire vis à vis du jeu

“on veut se gaver un max sur le jeu et l’abo mensuel, mais comme on veut faire croire qu’on pense aux joueurs, on voudrait bien que MS ne fasse pas payer de son côté”

Hypocrisie quand tu nous tiens … <img data-src=" />





hypocrisie?

D’un point de vue rationnel, c’est le xbox live gold trucmuche payant qui n’a aucun sens. Ici, betheseda développe un jeu, fournit les serveurs et leur maintenance, et donc, comme c’est presque toujours le cas pour les MMO, prend un abonnement mensuel.

Dans l’affaire, microsoft vend la console, et touche surement un pourcentage pour les ventes du jeu, mais je ne vois pas bien pour quelle raison le joueur devrait payer microsoft pour l’accès au réseau…

Ils ne fournissent pas de serveurs que je sache?

Ils ne fournissent pas d’infrastructures réseau, c’est le FAI qui le fait…

Et si on parle de cloud et tout, bah dans steam c’est disponible sans avoir à s’abonner!

EN gros, à quoi sert microsoft dans un tel cas de figure au niveau du réseau?



Mais bon, à chaque génération de console, on ajoute des restrictions, et on trouve des nouveaux principes pour faire payer les joueurs de façon indue… Avant c’était les DLC, maintenant c’est une taxe à payer à microsoft pour pouvoir utiliser les fonctionnalités réseau…

SI encore ils fournissaient une valeur ajoutée quelconque :/

Je crois bien que c’est la même chose chez sony d’ailleurs?



Heureusement qu’il reste le PC, et surtout les indépendants….


Le 22/08/2013 à 16h 03







ouais a écrit :



Les sms/mms illimités vers les DOM: bonne mise à niveau mais qui paye encore plus de 40 euros par mois pour un forfait??





Je sais pas pour la France continentale, mais aux Antilles, je dirais… à peu près tout le monde ^^



Du coup, orange, ce serait bien de rajouter la même chose DEPUIS les DOM ^^


Le 02/08/2013 à 00h 03







Skeeder a écrit :



Moi ça fait déjà presque 8 ans que j’utilise de l’eSATA. Je ne vois pas l’intérêt de l’USB 3 pour les disques. On avait déjà des ports eSATAp/USB l’eSATAp est aussi alimenté comme l’USB.

L’USB 3 c’est plus pour les cartes d’acquisition/TV, les camescopes/APN etc.





L’intérêt, c’est que presque personne n’a d’eSata. Moi je ne prends même plus la peine de chercher des cartes mères e-sata.

Tu pourra me répondre que pas grand monde n’a d’USB3 (moi même j’ai encore des PC qui n’ont que l’USB2). Mais au moins l’ USB3 se branche sur une prise USB2 sans problèmes, et les données sont accessibles partout, même si les perfs ne sont pas optimales en USB2.



De plus, il n’y a pas de “hubs e-Sata”, alors qu’avec un hub USB3 on peut brancher 4 disques sur un port, tout en conservant de très bons débits. Je me suis fait un boitier contenant 4 disques USB3, un hub, une multiprise pour brancher les transfos, du coup j’ai UN cable à brancher au PC voulu, et un câble à brancher au secteur. En e-sata, ça aurait été beaucoup plus cher, pour trouver des boitiers e-sata chainables.



L’eSata a aussi bien souvent le défaut de “manger” un port sata. Pour mon nas j’ai comparé les cartes mères mini ITX. Et quand il y avait des ports e-Sata, c’était souvent au détriment des ports sata internes. D’ailleurs je trouve qu’ils devraient filer un bracker sata vers e-Sata plutot que de mettre le port sur le paneau de sorties…



Dernier point, c’est la versatilité du port, plutôt que d’avoir 50 câbles différents, on peut avoir un stock de câbles identiques, de tailles différentes et interchangeables. Si je paume mon câble, je prends celui d’un autre bidule, et au pire, un câble USB2… Et bien sur, je n’ai qu’a me préocuper d’avoir des ports USB3, et je sais que je pourrai brancher mes disques, un contrôleur réseau, carte d’aquisition, etc…



Bref, je comprends qu’on préfere le e-sata pour les disques à cause des perfs du e-sata, la plus faible demande de ressources et la fiabilité, mais on ne peut pas dire que l’USB 3 ne serve à rien pour les disques par rapport au e-sata :)





Le 16/07/2013 à 18h 17

Juste comme ça : Regardez ou en était l’impression 3D “grand public” il y a 5 ans. Et vous verrez à quelle vitesse ça évolue. Il y a des technologies comme Arduino qui mettent l’électronique programmable à la portée de tous, permettant de faire des circuits évolués, open source, pour contrôler divers systèmes. Les imprimantes 3D open source sont souvent basées sur des systèmes proches. Maintenant avec l’imprimante 3D accessible (les modèles les moins chers sont à 200€), on peut imprimer les parties mécaniques ou demandant de la précision, ce qui permet quand même de faire beaucoup de choses très utiles/intéressantes à des coûts très réduits.

Le plastique n’est pas forcément si cher. Il peut se trouver à des prix très très bas. D’autre part, il y a divers projets de “machines à fabriquer le plastique pour imprimante 3D”. Par exemple, vous achetez les granulés de plastique, bien moins chers que le filament, et la fabricatrice de filaments extrude le filament souhaité.

Il existe également des projets visant à faire la même chose avec des bouteilles de plastique qu’on ne jetterait plus mais qu’on recyclerait ainsi.



Sur les designs, on pourrait certes voir l’aspect “copie de trucs qui existent”. Mais il existe d’énormes bases de données d’objets open source, d’accessoires pour des objets existants, etc, qui peuvent être téléchargés et imprimés. Que le fabricant soit content ou pas, il ne peut pas m’empecher de fabriquer mon propre dock pour téléphone portable pourvu que je n’utilise pas ses brevets. Or, un câble USB et un support physique, je vois mal comment il pourrait le breveter.



Enfin, n’oublions pas une chose : rien ne vous interdit de fabriquer une copie d’un truc existant. Vous n’avez pas le droit de vendre des objets copiant une marque non libre sans l’autorisation du propriétaire. Mais il y a des types qui fabriquent des reproductions d’objets divers chez eux, et ça n’a rien d’illégal.



Maintenant ne doutons pas que les industriels trouveront un moyen de faire imposer des restrictions sur les plans et autres…

Cependant le point important, c’est que la communauté “maker” développe depuis des années toutes sortes de modèles libres, de variantes compatibles, etc…

Donc pour la fonctionnalité on pourra toujours avoir un objet utile faisant pareil ou mieux que l’objet breveté!



Bref, ça évolue très vite, et il y a d’autres possibilités de fabrication qui se démocratisent (découpeuses laser à faire soi même par exemple) qui permettent de fabriquer des choses inaccessibles aux imprimantes 3D actuelles. Mais même là, elles évoluent, car on a déjà des modèles capables d’imprimer dans une sorte de bois, et les métaux pourraient bien arriver plus vite que prévu…

Le 18/06/2013 à 16h 55







Moff Tigriss a écrit :



Et c’est une très bonne chose, vu qu’il n’y a pas assez de moyens pour avoir une étape de validation des modifications, comme GoogleMap Maker.

J’ai pratiqué les deux, pour rendre un événement accessible aux visiteurs (en gros il n’y avait que les routes, et encore…), et OSM est extrêmement puissant. Peut être même trop, certains domaines demandant de se renseigner un peu sur le vocabulaire.



GMM est sympathique, mais peuplé par des admins, pratiquement tous volontaires et bénévoles, stupides bêtes et méchants, et zéro contact avec Google possible (un bug très gênant est présent depuis des mois, c’est le vide total). Au final ça reste un bricolage géant et très disparate.

Le résultat est un sentiment d’injustice et d’exploitation (toute modif appartient à Google) particulièrement fort. Je n’ai fais que le nécessaire, et c’est tout. Alors que c’est hyper addictif.

Zero source externe utilisable, et même parler du cadastre pour justifier une nouvelle route peut vous valoir un ban.

Du coup, des volontaires ayant assez de modifs pour être de confiance se sont organisés sur un GoogleDocument, et font qu’un vrai travail peut être fait, et rapidement (certaines de mes premières modifs il y à 6 mois, que je n’ai pas mis dessus, sont toujours en attente).



Cherchez la commune de Griselles (Centre) pour voir le résultat d’un long travail. Puis allez voir Bing, qui représente bien ce qu’était la zone sur GMap avant mon intervention. Les bois aussi sont tracés à la main ;)



OSM est différent, dans le sens où même des détails infimes sont possibles. Chaque contributeur est responsable, et il est plus que conseillé d’aller sur le terrain (traces GPS, photos, etc…).

Les sources utilisables comme bases sont peu nombreuses mais de qualité (BingMaps, Cadastre, Cartes Européennes, etc… L’OpenData joue un rôle très important).

Les outils sont complexes, et il est facile de faire des dégâts difficile à rattraper. Les informations possibles ne sont pas toujours standardisées (projet communautaire oblige, c’est le royaume du drama et du chipotage), mais globalement évidentes.

Une carte parfaite contient un nombre d’informations impressionnant (accessibilité pour les fauteuils, voie piétonne avec règle, etc…), qui permet de créer des cartes hyper adaptées, ce qui est assez génial.

J’aime beaucoup OSM, son seul défaut est au final sa communauté “bruyante”, comme partout (à côté, y’a des gars hyper sympas que j’ai rencontré, mais qui sont invisibles).



Il y a d’autres participants à OSM ici ?<img data-src=" />





J’ai fait quelques ajouts/modifications, mais il est vrai que c’est parfois complexe.

Maintenant que je me suis mis à l’électronique et aux raspberry pi, j’ai un module GPS, accélérometre, etc, je vais pouvoir coller tout ça dans ma voiture, et aller récolter des données.



Un point intéressant, ça pourrait être de cartographier des voies maritimes (je suis en Guadeloupe), car personne ne fait ça :) Il suffirait que je file un module de collecte de données GPS aux collègues biologistes marins!


Le 18/06/2013 à 16h 45







inotoff a écrit :



Va coller une antenne de cellulaire à 20kms d’altitude, tu vas pas capter grand chose <img data-src=" />







Sur ce point, je me permet une petite note : il y a un projet ou un raspberry pi a été collé a un ballon météo, et monté jusqu’à une quarentaine de km d’altitude.

Il me semble bien que pendant toute une partie du vol, il emettait par le biais de ce type d’antenne.



D’autre part, n’oublions pas les records d’emission en wifi atteignant la centaine de km en terrain dégagé, depuis un point en altitude, avec des antennes passives!

Si on peut atteindre une telle portée en wifi passif à travers la zone la plus dense de l’atmosphere, on peut sans doute le faire à la verticale, selon un axe ou la densité atmospherique décroit rapidement.



Déjà a 5km d’altitude, il devient difficile de respirer. Donc cela indique une baisse conséquente de la densité de l’air. Donc j’imagine que pour les 15 km au dessus, c’est proportionellement plus prononcé!


Le 18/06/2013 à 16h 36







Mustard27 a écrit :



Quand je lis les solutions farfelues et basiques (il suffit de rajouter un systeme …) que certains apportent ici alors que les meilleurs ingénieurs et scientfiiques n’arrivent pas à résoudre, je me dis qu’on est vraiment sur un forum informatique ici, et pas d’ingé en aeroscience.

Vous êtes de beaux rêveurs les gars. Cette histoire n’est que du buzz, une de plus, ce n’est pas la première fois qu’on nous promet une nouvelle technologie pour couvrir 100% d’une zone et qu’on n’en entend plus parler ensuite.

Libre à vous de croire à cela, tout comme certains ont cru aux hotel dans l’espace dans les années 2010 avec Biggelow, ou certains ont cru aux avion de ligne stratosphérique Paris-NY en 1H … mais cela ne vous donne pas le droit de dire que je suis un troll juste parce que mes connaissances font que je casse votre reve de croire que cette histoire de ballon est envisageable. retombez un peu sur Terre.







Ecoute, tu es bien sympa, mais entre quelqu’un qui fait de la montgolfière et les ingénieurs de google… Je veux bien croire que tu connais certaines choses, mais il y en a d’autres que tu ne connais manifestement pas.

En outre, tu parles de choses qui ne sont ni dans le projet, ni dans l’article, pour critiquer.



L’opportunité d’un satellite? certes, un lancement en orbite géostationnaire, ça ne coûte pas grand chose! D’autant plus que les pays du tiers monde ont très certainement les moyens de lancer des satellites…



Bref, émettre des doutes, c’est une chose. Mais venir dire “c’est impossible, c’est du buzz, ils racontent des conneries”, avec quelques arguments très légers, c’en est une autre.



De toutes façons, beaucoup de choses sont dites impossibles jusqu’à ce qu’on les fasse.

Je ne suis pas ingénieur en engins aéroportés. Je suis chercheur en Informatique (recherche publique). Et je peux te dire que je ne cesse d’être surpris par ce qui est réalisé par diverses équipes. Chaque année, des choses autrefois jugées “impossibles” sont réalisées. Et ça devient vite l’état de l’art. Alors au lieu traiter tout le monde de troll, et les ingés de google de menteurs incompétents, je pense que tu devrais faire preuve d’un peu plus d’humilité, et exposer tes réserves de façon plus modérée.





Le 18/06/2013 à 15h 46







Pogny a écrit :



cet été après retour de vacances :



starbound



hextcg



et toujours wow





Starbound, je l’attends à mort!

En jeu de stratégie, il y a Planetary Annihilation, par des mecs de Total Annihilation et Supreme Commander, donc über w00t!!!!



Et sinon shadowrun returns, en rpg qui a l’air tout à fait dément!


Le 18/06/2013 à 15h 32







monpci a écrit :



une idée de la grosse surprise ?

perso je rêve d’avoir un environnement graphique classique en plus …



sinon question votre uptime sur le Raspberry Pi c’est combien en moyenne j’ai lu 30J environ

(oui moi je l’eteins et j’ai jamais fais le test)





J’en suis à 2 mois sur l’un de mes raspberry.

celui ci précisément :

forum.pcinpact.com PC INpact

Il n’a pas une charge lourde cependant, puisqu’il fait tourner un service pour gérer le LCD, et il collecte les infos de divers capteurs (lumière, température, et je ne sais plus trop quoi).

Il y a un serveur web dessus, et le serveur X tourne même si je n’ai pas d’écran branché dessus. (je l’utilise uniquement par ssh).



Bref, je dirais qu’il n’y a aucun problème à faire de gros uptimes; seulement le Pi étant encore récent, il y a plein de mises à jour améliorant le support de ceci ou cela qui font qu’on fait une MAJ et qu’on reboote, tuant ainsi l’uptime.



Aussi, beaucoup utilisent leurs Pi pour expérimenter, donc on l’éteint souvent pour câbler autrement, etc…



Sinon pour la grosse surprise, vu qu’il y a le support de la pi cam, je pencherais pour un bidule de commande par des gestes!



Maintenant y a t’il assez de puissance sur le pi pour faire tourner XBMC et opencv? à voir ^^


Le 18/06/2013 à 15h 14







Anthony25 a écrit :



Pas forcément, par contre tout recompiler oui.

Ou alors faire comme sous Android, utiliser des langages interprétés.





Pas nécéssairement de recompilation… Il suffit de prendre une distrib ARM qui gère cette archi!



Et pour ceux qui veulent winfows, je pense que windows 8 gèrera cette archi, non?


Le 10/06/2013 à 11h 36







naruto40 a écrit :



Tu pourrais préciser s’ il te plait ? tu aurais un nom, ou un lien <img data-src=" /> ?





Salut!

Sur hackaday, j’ai vu ce post sur la “udoo” :http://hackaday.com/2013/06/01/arduino-compatible-quad-core-arm-dev-board/



Et dans les commentaires de ce billet, j’ai vu ceci :

http://www.wandboard.org/

Il existe plusieurs versions, du simple coeur à 80\(, au 4 coeurs a 130\), en passant par le dual à 100$ :)

Seule la version quad à un SATA.

Par contre toutes les versions ont du GB lan. La ram varie aussi selon les versions, jusqu’à 2GB pour le quad.



J’espère que ça correspond à tes attentes :)





Le 05/06/2013 à 13h 50







mum1989 a écrit :



En fait, j’aimerais acheter un RasberPi Like,

mais en quad core armv7, avec USB 3.0, Ethernet Gigabit, et sata,

De plus j’attends que les prix se tassent, et que ça se généralise <img data-src=" />

c’est donc une bonne chose que Qualcomm commence à implémenter l’usb 3.





SI tu trouves à pas cher, je suis intéréssé :)

Mais ça existe déjà a 130$.



Pour l’USB 3 et le saturer, il n’y a pas que les transferts disque vers mémoire flash interne!

Avec un port USB3, on peut du fait du débit élevé brancher tout plein de trucs en parallèle, et proditer d’un débit cumulé important…



Un truc tout bête, mais avec un USB3 on peut avoir une docking station contenant les périphériques, disques externes, mais aussi le réseau GB….


Le 04/06/2013 à 04h 27







dr_plans a écrit :



Tu y vas un peu fort avec bulldo… il n’était pas aussi mauvais que ça…

Si en MonoThread il peinait un peu, en MultiThread il se débrouillait pas si mal.

Mais bon, c’est clair que le PhenomX6 était un bon CPU et que le gain est limité.



Et AMD à un peu corrigé le tir avec Piledriver qui est un peu moins mauvais en Single et encore meilleur en Multi. (lien)



Et comme tout devient de + en + MultiT, AMD s’en sort de mieux en mieux.



Ce que tu dis est toujours vrais, AMD offre des perfs très correcte à des prix très intéressant.



Sinon, pour ce qui est du choix, là je suis d’accord… L’offre de produit en AMD est trop pauvre, surtout en Europe.





J’ai lu que ça s’améliore, en effet. Mais est-ce que piledriver est nettement au dessus d’un Phenom II X6? Le mieux qui soit disponible, c’est les 8 “coeurs”, qui sont 4 modules. Si il y avait une version 6 modules, je pourrais me dire que j’ai très certainement un gain de perfs par rapport à un X6, puisque chauque module est censé offrir plus en environnement multithreadé. Mais bon, il faudra sans doute attendre la prochaine génération…



Je ne dis pas que les AMD sont complètement nazes, mais le gain par rapport à l’archi précédente est très incertain, alors que les prix ont un peu monté, et qu’on se retrouve avec des consos importantes sans forcement plus de puissance. Enfin, et c’est ce qui m’ennuie le plus, toute l’activité d’AMD semble être sur les Ax, le socket FM2 et les APU. C’est bien sympa, mais si on veut juste le CPU, ces puces sont chères pour une puissance très banale, le socket n’est pas nécéssairement pérenne, et de toutes façons pourquoi payer un IGP si on en à pas l’utilité? Coté AM3, il y a assez peu d’annonces, ça stagne pas mal je trouve.


Le 04/06/2013 à 04h 20







David_L a écrit :



On peut reprocher plein de choses à Intel, mais sur trois arguments, les trois tapent à côté. Intel est effectivement plus cher, m’enfin de là à annoncer un rapport de un à trois… ok si tu compare un APU A4 à un Core i7, mais sinon… <img data-src=" /> ?



Pour le reste, Intel change de socket comme d’architecture. Après effectivement, AMD a toujours gardé une rétrocompatibilité, mais cela n’empêche pas de devoir changer pour les derniers modèle en plus des différents sockets sur la gamme : BGA, FMx et AMx. Puis on l’a déjà dit, mais la meilleure façon de ne pas avoir à se prendre le chou avec l’évolution des sockets, c’est de ne rien changer dans les CPU. C’est ausssi ça que paie AMD sur le haut de gamme (espérons que la nouvelle équipe redressera sérieusement la barre).



Pour l’overclocking soit disant bloqué, je ne vois pas non plus le souci. Chez les deux on a des modèles débridés, après il faudra me dire quelle marge on va avoir avec des APU en 32 nm à 4.4 GHz au départ hein… Après, la pratique a moins d’importance avec l’arrivée des Turbo, mais dans tous les cas, je ne vois pas ce qu’il y a de meilleur dans les pratiques d’un coté ou de l’autre.





Je ne sais pas pour les Bulldozer, mais quand j’ai eu mon Phenom II X6 a moins de 150€ l’équivalent chez intel etait facilement deux fois plus cher.

Donc ça rentre dans “2 à 3 fois plus cher”. Le probleme chez intel, c’est que outre les performances, si tu veux toutes les fonctionalités, il faut prendre le modèle super cher (genre i7) sinon tu n’as pas ceci ou cela. D’autre part, si tu rajoutes le fait que pour les cartes ayant un minimum de fonctionalités, chez intel on a souvent un surcoût, ça fait qu’en fin de compte tu te retrouves à payer en fin de compte pas mal plus cher chez intel.



Pour le second point, intel ne change pas seulement de socket à chaque nouvelle archi : quand ils conservent le même socket, ça change rien, il faut quand même racheter une nouvelle carte mère pour l’upgrade. On peut dire ce qu’on veut d’AMD, mais je peux conserver mon CPU sur une nouvelle carte mère si l’ancienne grille, et mettre un nouveau CPU sur mon ancienne carte mère en cas de problème de CPU. Au passage, en conservant le même socket, tu peux conserver le même ventirad/watercooling sans avoir à refabriquer un systeme de fixation, ou en acheter un autre.

SUr la non évolution, ici, je trouve ton argument mal tombé, car justement, bulldozer est un changement assez important sur le CPU, qui conserve tout de même la rétrocompatibilité. Manque de bol, c’est un peu naze comme upgrade ^^ Toujours est il que dire que bulldozer est identique à l’archi des phenom II est très très exagéré. D’autant qu’on ne peut pas dire qu’intel ne révolutionne grand chose ces derniers temps non plus… ça évolue progressivement, (et ça stagne pour AMD), mais je lis rarement des changements bien passionants en matière de CPU comme à l’époque des P4/A64, ou même si la solution P4 etait moyenne, il y avait des innovations, et tous les bidules ajoutés sur le pentium M/les intel Core… Peut être que je deviens blasé, mais j’entends surtout parler d’IGP dans le CPU qui progressent, de finesse de gravure, et de deux trois petits bidules améliorés à chaque fois :)



Pour l’overclocking, modèle black édition ou pas, chez AMD, il me semble que tu peux toujours overclocker par le FSB (enfin le nom qu’il à maintenant). Dans un autre temps, chez intel, j’ai cru comprendre que le CPU te laisse potentiellement une petite marge de manoeuvre, mais pas grand chose si tu n’as pas l’édition K.



Il est loin le temps ou tu achetais un CPU bas de gamme, et ou tu pouvais rajouter presque +50% de fréquence dessus!



Quand au mode turbo, bof bof… Certes, c’est pas mal, mais on est loin d’un vrai overclocking!



Donc globalement, je réitère : Les produits Intel sont certes plus performants, mais proportionellement par rapport au gain de prix. Bien souvent avec le Intel on va doubler le prix pour 30% de perfs en plus, ou quelquechose du genre. D’autre part on est coincé avec une carte mère qui ne sert à rien en cas d’upgrade (j’ai de vieilles mobos qui ne feront pas tourner mon phenom II à plein potentiel, mais qui font de bonnes cartes de “secours”), et qui plus est on est obligé de raquer pour avoir toutes les fonctionnalités, et ne pas être enfermé dans le positionnement décidé par intel pour sa puce.



Bref, plus le temps passe, plus les possibilités de bidouille par l’utilisateur se restreignent. C’est en partie contrebalancé par une très nette augmentation des fonctionnalités, et de la puissance disponible “out of the box”, mais bon, on retrouve quand même les désagréables habitudes d’Intel à vouloir régenter ce que tu peux faire de ton matos. Bref, les pratiques d’Intel me déplaisent, les produits d’AMD ne me satisont pas. Les APU, c’est bien sympa pour quelques personnes, mais pour ma part ça n’a AUCUN intérêt. Je veux soit un CPU puissant couplé avec une carte graphique adaptée au jeu, soit un CPU puissant pas cher pour faire du calcul parallèle. Et là, soit je paie cher chez intel pour avoir plein de coeurs hyperthreadés, soit pas cher chez AMD avec des performances difficile à prévoir, et un système de modules tout bizare dont j’aurai du mal à comprendre la “scalabilité”.


Le 29/05/2013 à 14h 27

La question que je me pose, c’est pourquoi AMD ne sort pas un fichu 8 cœurs, vu qu’il y en a pour les consoles? au pire on passe a 18-34W de TDP, faudrait voir ce que ça donne!



Quand au marché des “gros” CPU… bah depuis que les Bulldozer sont moins puissants à équivalents aux meilleurs phénoms, ça ne donne pas trop envie d’acheter….



Avant, je prenais des AMD en sachant que c’est un peu moins puissant qu’Intel et beaucoup moins cher. Mais là, il semble que si je prends un buldozer, je downgrade ma config… Alors qu’on trouvait des X6 en dessous des 150€…



D’autre part, gros problème : on ne trouve plus rien comme cartes mères AMD. Vu que tout le monde se fout du bulldozer, on a plus toutes les Asrock originales (ou même carément bizares), les mises à jour, etc, des cartes mères.



Moi je cherche tout simplement de bonnes cartes mères en ITX pour AM3, impossible de trouver ça… ou alors des vieux bidules sans USB3, ou avec peu de SATA…



Et le problème chez Intel, c’est que ce qui m’intéresse coute facilement 2 à 3 fois plus cher que ce que j’aurais pris chez AMD, sans compter que les cartes mères n’ont aucune durabilité en ceci qu’au prochain CPU, il le chipset ne sera plus compatible. Sans compter ces conneries d’overclocking bloqué….



L’évolution du marché des CPU Desktop me fait très clairement chier :/

Le 03/06/2013 à 12h 55

Enfin, pour l’instant, Il semble que les bulldozer ne soient pas toujours au niveau des phenom X6…

Et cette histoire de modules, c’est bien, mais ce ne sont pas réellement des coeurs d’exécution. On a donc 4 coeurs de 2 modules, ce n’est pas réellement 8 coeurs… Je reste en phenom II X6 pour le moment, en attendant qu’ils sortent un vrai truc serieux…



Pour l’instant ils ont sorti tout un tas d’APU, mais ça n’apporte rien sur la puissance de calcul, ces trucs.



un phenom III X8 gravé avec les dernières finesses, ça aurait été parfait :)



ça m’ennuie, mais à force, je vais finir par devoir passer chez Intel… J’ai pas envie de dépenser 300€ dans un CPU, cependant!



Ce serait bien que le marché des cartes mères AMD reprenne un peu, car pour l’instant impossible de trouver l’équivalent en mini ITX des super mobos qu’on voit pour les intel (en mini ITX aussi, avec toute la connectique qui va bien)

Le 19/05/2013 à 23h 05

Pour ma part, je pense que j’attendrai une version patchée, avec les DLC, en promo dans quelques mois…

Le 19/05/2013 à 22h 23

Dès que mon compte se re-remplit, j’en commande deux, avec deux pi modèles A, et j’en ferai un test complet (au passage, ce sera l’occasion de comparer le modèle A et le modèle B, je n’ai que des modèles B pour le moment).



J’ai bien l’intention de faire un projet “caméra IP motorisée” avec ces équipements, le moins cher possible. Pour la vision nocturne, il faudra que je voie s’il y a moyen d’enlever le filtre IR (s’il y en a un) du caméra board…



AU passage, avec un modèle A on divise la conso presque par 2. Donc en alimentation sur batterie, on devrait pouvoir aller assez loin (c’est principalement pour ça que je commande des modèles A : mes robots n’ont pas besoin du port ethernet, mais d’autonomie. Idem pour mes autres projets mobiles).

Reste à voir comment les 256mo de ram en moins vont jouer sur les perfs en capture vidéo :)

Le 06/05/2013 à 22h 11







Jonathan Livingston a écrit :



En VO il s’agit de “lightsaber” : il n’est pas question de laser. Il y a eu des tentatives d’explications scientifiques, notamment à base de plasma contraint dans un champ magnétique, avec un cœur métallique télescopique (pour guider le champ magnétique, et faire que deux “lames” ne peuvent pas se croiser).





Certes, mais LightSaber ça fait quand même sabre de lumière ^^

Dans tous les cas, il reste le problème de repousser les lasers avec le sabre, car si les blasters tirent des lasers, alors ils se fichent du champ magnétique :)

Toutefois, le coup du sabre à plasma, c’était ma théorie pour envisager un “lightsaber”. Maintenant je n’avais pas pensé à un coeur métallique (est-ce réellement nécéssaire? on peut forger des champs magnétiques en utilisant plusieurs sources, et en gérant les interactions entre chaque source).



Par contre ça poserait un problème : il suffirait d’un générateur de champ magnétique pour être imunisé aux lightsabers :)







Jonathan Livingston a écrit :



C’est du space opera, un sous-genre de la science fiction qui s’assoit souvent sur la rigueur scientifique dans l’intérêt de l’intrigue. Ne serait-ce que pour aller d’une planète à l’autre, ce qui est la base de ce genre.





Sinon pour la définition de space opéra, j’ai toujours pensé que c’était simplement de la SF dans l’espace avec des vaisseaux dans tous les sens! (je sais que ça a été péjoratif à une époque, mais j’ignorais que le space opéra impliquait l’absence de rigueur scientifique).

Ceci dit en relisant mieux je vois que tu dis “souvent”, donc ce n’est pas systématique…





Par contre pour les voyages interplanétaires, c’est sur qu’il faut un “bidule” pour les rendre possibles. Sinon c’est nettement moins grandiose comme échelle. Mais certains essaient de fournir des explications plausibles, alors que d’autres ne proposent même pas une idée :)



Maintenant, c’est sur que sans “vitesse lumière”, on serait embêtés :)

A ce propos, je trouve que Mass Effect a particulièrement bien détaillé tout ça.



D’ailleurs à mon sens, l’univers de Mass Effect est ce que star wars aurait pu être si ils avaient pensé le tout en “hard science” ^^


Le 05/05/2013 à 00h 59







jb18v a écrit :



+1 pour Blame! et Gunnm (mais la suite de Last Order se fait trop attendre, changement d’éditeur INside <img data-src=" />)





Que veux tu dire par là? j’en suis au tome 15 en FR (et j’ai lu le reste sur le net ^^).

Il semble qu’ils soient au 17 aux US, mais venant de cet auteur, je ne suis pas surpris des retards, il y a toujours eu des “trous” dans la publication de ses oeuvres :)



Au passage, pour Blame, il y a Biomega, du même auteur, qui est en gros la même histoire (enfin bon, pas tout à fait, mais j’aurais tendence à dire que c’est une version 2.0 de Blame), en raconté. Je veux dire par la que cette fois il y a des dialogues plus souvent que toutes les 20 pages, et que parfois on comprend des trucs ^^ (j’exagère bien sur, j’ai fini par comprendre en partie blame. Mais faut reconnaitre que cet auteur n’est pas aussi fort pour faire comprendre son histoire que pour créer un univers extraordinaire, et des visuels hallucinants ^^)

Au passage, dans Biomega, on sent une nette amélioration de ses techniques de dessin. Si les décors étaient tout simplement exceptionnels dans Blame, certains personnages étaient un peu… légers… Dans Biomega, je trouve qu’il a mis à niveau le dessin des personnages, et ça n’en rend l’univers que plus cohérent.



Pour ceux qui ne connaissent pas, je vous conseille d’essayer, c’est très surprenant, et l’auteur est un architecte, ce qui se ressent dans la précision et la plausibilité de ses décors. Généralement dans beaucoup de mangas, quand il doit y avoir une structure énorme, eh bien c’est juste un gros bidule. Là, on a des structures réellement construites, dont la forme semble logique, bien que chaotique, et tout à fait plausible.



La seule question, dans l’univers de Blame, c’est “ou prennent ils toute cette matière pour construire ces bidules” <img data-src=" />













Jonathan Livingston a écrit :



Ben en bouquins il y a “Dune” bien-sûr. Pour moi c’est bien du type hard science, bien qu’il n’y ait pas de robots et que les combats soient au poignard et non au laser. Les sciences développées sont l’écologie, la génétique, etc. Et l’univers est très détaillé. Par contre évite le film.



Un auteur que je recommande souvent c’est Ursula Le Guin. Surtout pour “Les dépossédés”, un modèle à la fois de science (le héro est une sorte d’Einstein extra-terrestre) et de fiction (une utopie anarchiste – ou plus précisément communiste libertaire). Ses autres romans, pour la plupart inscrits dans le même cycle “de l’Ekumen” (Les dépossédés est le premier dans la chronologie du cycle) ne sont peut-être pas très hard science mais développent des thèmes comme le colonialisme, l’écologie, le féminisme, etc.

Son cycle “Terremer” est du médiéval fantastique, mais d’une certaine manière réaliste : la magie a une explication cohérente. Il existe d’ailleurs un lien ténu avec son cycle SF.







Dune, c’est très surprenant. AU début j’ai trouvé que ça n’avait rien à voir avec de la SF, car on se retrouve avec un système féodal, dans un desert, des types avec des épées, et des téchnologies qui semblent manifestement dépassées. Mais par la suite on découvre l’univers, et j’ai fini par comprendre pourquoi c’est de la SF.



Mais Dune reste à part à mes yeux. J’ai beaucoup aimé lire ces ouvrages (je n’ai pas tout lu, peut être les 4-5 premiers ou quelquechose du genre). J’ai très largement préféré les deux tomes de Dune aux épisodes suivants, même si ceux ci se sont avérés intéréssants.



En parlant de Frank Herbert, c’est un auteur intéréssant, mais je n’ai pas trouvé toute sa production intéréssante. J’ai un gros pavé de lui, que j’ai trouvé atrocement imbuvable (aussi désagréable à lire que “Le Silmarillon” par exemple), et super chiant (le voyageur du vide ou quelquechose du genre). C’est marrant de voir comment certains ouvrages d’un auteur peuvent vous happer alors que d’autres peuvent vous laisser de marbre.



Asimov a pu me captiver, même si ce ne sont probablement pas mes sagas préférées, et si tous les ouvrages ne m’ont pas autant plu les uns que les autres, je trouve qu’il y a une grande uniformité dans ce que j’ai lu (tout le cycle des robots, et le cycle de fondation, ainsi que quelques “stand alone”), et aucun bouquin ne m’a déçu.



Sinon sur hyperion/endymion (les 8 bouquins), j’ai tout lu/dévoré :)

Il me semble que l’eveil d’endymion retrouve certains des pelerins, et ne raconte

plus les aventures qu’on suit avant.



Mais je ne saurais pas bien le dire, car j’ai tout lu un peu à la suite (sauf le premier hyperion, et j’ai du attendre 5000 ans pour avoir Hyperion II, ça a été très frustrant… du coup j’ai acheté tout ce qui se rapportait à cette saga d’un coup, quand j’ai trouvé le reste :) )



Sinon, merci pour les suggestions, ça me fera des commandes à faire!

Justement, j’aime quand la SF sert de support à une réflexion sur la société, l’organisation de celle ci, et pas simplement des histoires de vaisseaux spatiaux :)

Mon problème avec la SF, c’est que c’est très clairement mon univers. Je suis né, et j’ai grandi là dedans. Du coup je suis hyper exigent, alors qu’en Heroic Fantasy, j’ai plus de facilités à lire un bouquin juste distrayant. Quand c’est de la SF, j’ai du mal à passer outre les trucs grotesques, les incohérences, les points “gris”…



Dans Star wars par exemple, j’avais du mal avec “l’épée laser”, avec le fait que les jedi arrivent à voir venir des tirs de laser et bouger assez vite pour les repousser, et je ne pouvais m’empecher de me demander pourquoi les méchants ne tiraient pas au shotgun (ou une mitrailleuse) sur les jedi, pour les submerger sous le feu…

Maintenant ça va mieux, j’arrive à voir ça comme un divertissement Heroic Fantasy dans un univers futuriste :)



Un Inpacticien disait qu’il aimerait bien voir Peter Jackson réaliser Hyperion.

Moi je dis : Peter Jackson devrait réaliser toutes les adaptations de romans cultes, de BD cultes, manga, etc…

Il devrait y avoir une sorte de guilde, ou les types devraient réaliser un film sous la direction de peter jackson avant d’avoir le droit de faire des adaptations ^^



Très honêtement, je ne vois pas des masses de “gros films” dans la décénie écoulée qui ont été réalisés aussi proprement que le seigneur des anneaux. Et encore moins d’adaptation qui rende aussi bien le propos du bouquin (en tous cas dans les films a grand spectacle!)

Il faudrait un “Peter jackson seal of approval” ^^



Le 06/05/2013 à 21h 23







Superambre a écrit :



Oh IBM innove, ce n’était pas arrivé depuis 1967 .. jesus





ça sort d’ou, ça?

Je peux imaginer que tu ne tires pas le bénéfice des inovations de IBM, car elles ne sont pas tournées vers le grand public. Mais en recherche, ils font plein de trucs, et il y a pas mal de papiers qui ne sont possibles que grâce à IBM… (papier = article scientifique, donc recherche. En tous cas en sciences exactes, un papier sanctionne une recherche acceptée comme valide par la revue qui le publie, et généralement si c’est des conneries, ça se sait rapidement.)



Bref, tout ça pour dire qu’IBM fait beaucoup de recherche, qui ont beaucoup de débouchées scientifiques. Maintenant, si on parle d’innovations qui servent au grand public, peut être que ces recherches n’en sont pas encore arrivées au point ou elles sont utiles à tous :)


Le 06/05/2013 à 21h 19







tmtisfree a écrit :









La physique conventionnelle n’est pas un cadre adapté pour détailler les phénomènes physiques, et la physique quantique permet d’expliquer tous les phénomènes, même à échelle macroscopique, voire stellaire?



J’ai toujours entendu l’exact contraire.

Ta citation sur les trous noirs est intéressante, mais tu prends précisément l’objet le plus singulier de l’astrophysique, pour lequel on peut se retrouver avec des phénomènes à toutes les échelles, et tellement de particularités selon la distance d’observation…



Toujours est il qu’il n’y a pas encore à ma connaissance de gravitation quantique connue; que lorsqu’un physicien étudie l’évolution des fluides dans des systèmes complexes, il ne parle pas des masses de physique quantique (J’ai des amis qui font de la recherche en physique, par exemple sur les tsunami, la propagation des aérosols dans l’atmosphère, etc. Bref, ils font de la recherche sur ces domaines, et ce avec de la “physique classique”.)



Quand à savoir si les phénomènes quantiques seuls entraînent tous les phénomènes observés à échelle macroscopique, je n’en suis pas du tout convaincu. Eu égard du fait que beaucoup d’interactions quantiques sont aléatoires, on a théoriquement dans beaucoup de cas une somme d’interactions statistiquement nulles, puisque sur une quantité suffisante d’interactions, celles

ci sont contre-carrées par des interactions contraires.



Bref, du coup, à échelle globale, on a toujours besoin de la physique classique pour étudier la trajectoire des corps, l’évolution d’un tsunami, d’un cyclone, et tout un tas de choses.



Je ne suis pas chercheur en physique, mais en informatique. Mais du coup je côtoie beaucoup de chercheurs dans tous les domaines, et en tous cas dans mon labo, personne ne semble dire que “la physique classique est morte”.



Quand à ton argument sur les théories du tout qui étendent le champ d’action de la physique quantique, on peut le voir dans l’autre sens, et voir l’extension de la physique classique vers le domaine quantique. A partir du moment ou on parle de théorie du tout, ça englobe forcément les deux domaines…



Bref. Pour moi, les deux solutions à l’équation de la physique morte, c’est soit qu’on trouve une théorie qui remet tout en cause, en proposant un nouveau système, soit qu’on parvient à un état de l’art tel qu’il n’est plus possible d’aller plus loin, et qu’il n’y a aucune évolution possible.



Or, je vais prendre un exemple que je connais mieux : à un moment dans l’histoire des réseaux de neurones artificiels, ceux ci ont traversé une grosse crise de confiance, car de fortes limitations ont été démontrées. On aurait pu dire que ce domaine était “mort”, mais pourtant on a fait évoluer les modèles, et même si rien ne filtre dans les média normaux, il y a toujours eu des papiers proposant des idées, solutions, améliorations. Je trouve à l’heure actuelle des papiers sur des modèles de réseaux de neurones qu’on utilise pratiquement plus du fait de l’apparition d’autres modèles plus efficaces. Pourtant des gens continuent à travailler dessus.



Mais bon, comme le dit un autre INpacticien, ce fil de discussion est-il sérieux, ou alors simplement un débat pour débatre?



Le 05/05/2013 à 00h 25







tmtisfree a écrit :



La physique classique est morte il y a ~ un siècle. Elle n’est que l’émergence (par décohérence) de phénomènes quantiques (ie probabilistes) sous-jacents dans la (macro-)réalité. Penser pouvoir décrire un phénomène quantique autrement que quantiquement est aberrant.







Je ne suis pas d’accord avec ton affirmation.

La physique quantique, c’est bien sympa, mais ça reste fichtrement peu adapté au monde à échelle macroscopique. La mécanique “classique” reste quand même bel et bien le système utilisé pour la plupart des systèmes sur lesquels on travaille. Certes, dans certains domaines, on utilise des propriétés quantiques de la matière.

Mais de là à dire que la physique classique est “morte”…



Sans compter que c’est quoi la physique “classique” pour toi?



Et à échelle astronomique, je n’ai toujours pas entendu parler de quiconque faisant appel à la physique quantique ^^ (et ou met on les “théories du tout”, genre super-symétrie, théorie des cordes? vu que leur champ d’application théorique est censé s’appliquer à l’ensemble des échelles?)



Maintenant, il est certain qu’il y a sans doute encore pas mal de choses à faire avec le monde quantique, et tout plein de technologies qu’on attend avec impatience :)