votre avatar Abonné

SebGF

est avec nous depuis le 16 septembre 2009 ❤️

Bio

Blogger, writer, amateur photograph, tinkerer, solutions architect, problem solver, coffee addict.

Site personnel

https://zedas.fr

14077 commentaires

Le 28/01/2014 à 19h 56







Sparkdaemon a écrit :



Au final, ça risque d’être quand même intéressant. Voir comment numéricable peux gérer SFR. A suivre donc







Avec son réseau câblé actuel conséquent, récupérer un réseau mobile et ADSL, plus le peu que SFR doit avoir déployé de fibre, ça va leur donner un poids un peu plus élevé sur le secteur je pense.



Bouygues Tel risque de faire la gueule sur le fixe à mon avis (d’autant qu’ils louent le réseau NC pour leur offre fibre), p’tet pas pour rien qu’ils font tout pour favoriser la 4G.



N’empêche quand on voit la farandole des rachats d’opérateurs qui composent SFR, j’en viens à me dire … “bah, un de plus…” <img data-src=" />


Le 28/01/2014 à 17h 46







EMegamanu a écrit :



Ca aurait pu être pire… tu pourrais t’être originellement abonné à Club internet/Tiscali/AOL/Cegetel… ^^;







Présent o/



Ce fut drôle pour résilier à l’époque, Cegetel était en pleine assimilation par Neuf et les services semblaient en conflit à coup de “on gère pas” <img data-src=" />

Ils ont géré quand j’ai révoqué le prélèvement auto au final.


Le 28/01/2014 à 19h 50







matroska a écrit :



C’est exactement ce que je pense aussi !



Si on développe la fibre comme on inverse la courbe du chômage automatiquement c’est mal parti !



<img data-src=" />



<img data-src=" />







Ben d’après une étude de l’Etat, le déploiement de la fibre devrait générer plus de 19 000 emplois.



Mais bon, ça se déploie. Le seul côté triste, c’est qu’il n’y a guère qu’un seul acteur qui s’y soit réellement lancé.


Le 28/01/2014 à 19h 02







matroska a écrit :



L’ARCEP il ne sert plus à grand chose, vu qu’il n’a même plus son “pouvoir de santion” qui lui a été retiré…



Toute façon en France on est toujours à la ramasse dans à peu près tout, quand tu penses qu’en Europe certains pays arrivent à s’accorder et à fibrer même un pauvre village de 100 habitants tu te dis qu’il y a un problème…



Tant que quelqu’un n’imposera pas DRASTIQUEMENT les conditions de déploiement mutualisé à l’échelon national aux FAI nous n’avancerons jamais…



Bah, oui, pourquoi tirer 50.000 câbles identiques pour chaque FAI pour chaque immeuble/habitations ? Perte de temps, d’argent toussa…



<img data-src=" />



<img data-src=" />







Me semble que la miss Pellerin avait dit qu’ils verront comment rétablir le pouvoir de sanction de l’ARCEP pour mieux encadrer les éventuelles dérives de la 4G.



Par contre, le déploiement de la fibre n’est pas sujet à engagements de la part de l’opérateur à ma connaissance, contrairement au mobile où c’est mis dans la licence d’exploitation concédée par l’Etat.



Le boulot de l’ARCEP est avant tout de réguler le marché et d’avoir une “saine concurrence”… J’aimerais aussi qu’ils servent plus à bouger les fesses des FAI pour le déploiement de la fibre.



Si l’Etat veut que son plan THD avance, il va bien falloir qu’il mette un coup de boost pour favoriser le remplacement du réseau cuivre, ce qui fait partie des objectifs du plan très haut débit. C’est pas en comptant uniquement sur l’effort privé que ça avancera, c’est couru d’avance.


Le 28/01/2014 à 06h 34







sr17 a écrit :



(1) Sur un écran de netbook, il y a moins d’espace : quel intéret d’occuper plus de place avec de grandes icones ?



(1b) La barre d’unity est t’elle aussi pratique et puissante que l’étaient les barres de l’ancien desktop Gnome 2 ?



(2) Avec un logiciel libre, on peut toujours dire que tout est modifiable et/ou paramétrable. Mais combien de gens le feront ? N’est ce pas aussi au programmeur de proposer d’emblée la meilleure expérience “out of the box” sur chaque type d’appareil ?



(2b) Tu dit que Unity n’est pas réellement adapté au tactile. N’est t’on pas finalement arrivé à ce dont parlent les propos de l’article, c’est à dire qu’a vouloir unifier, on arrive à quelque chose qui n’est ni complètement mauvais, ni vraiment très bon ?



(3) Était-ce vraiment une nécessité de s’y adapter sur desktop ?



(3b) N’y avait t’il pas aussi de meilleures idées pour ré-implémenter la barre des tâches verticalement ? La façon de l’implémenter dans unity est t’elle idéale ?



(4) C’est une excellente nouvelle de voir arriver Mate dans les dépôts officiels. Mais je suis peiné de voir autant de grands spécialistes de l’interface s’être mépris sur leur capacité à concevoir l’idéal pour l’utilisateur.







J’ai répété trois fois qu’Unity n’est pas une interface unique mobile/desktop comme tu l’affirmes et que son but initial était de gagner de la hauteur en utilisant la largeur de l’écran alors majoritairement inexploitée.

(comme certains qui mettent leur barre des tâches Windows sur la gauche ou la droite)

Elle dispose désormais de deux versions : une pour le Desktop qu’on connaît sur Ubuntu, et une pour le mobile qu’on a découvert avec Touch.



On ne peut pas pondre out of box ZE interface ultime, c’est impossible. Ca demande beaucoup de temps et de travail avec les utilisateurs pour prendre en compte leurs opinions et retours. Au fil de ses trois ans, elle a quand même évolué je trouve vu que maintenant je peux l’utiliser sur PC pro. (mais encore incomplète à mes besoins sur le perso)



Bon, comme j’ai l’impression que nous n’arriverons pas à nous comprendre, je préfère arrêter là.

Les discours de sourds, très peu pour moi, désolé.

(sans aucune animosité, c’est juste que je n’apprécie pas de tourner en rond et répéter constamment les mêmes choses, peut-être ai-je du mal à m’exprimer..)


Le 27/01/2014 à 05h 45







athlon64 a écrit :



Je parlais de site, mais aussi pour certaines applis en pleine ecran, c’est un peu bete de bouffer sur la largeur alors que l’ecran de base était pas grand. Je ne sais pas si il y a possiblité de la masquer. Mais ce cas la, autant prendre un dock bien configurable et qui se place ou l’on veut et qui se masque si on veut.



Perso, je suis plus trop sur Linux (je garde Win pour les jeux et les VM) et sinon Mac OS pour dev. Mais j’aime bien Gnome 3 et sinon OpenBox qui est surement le truc le plus personnalisable tout en donnant le maximum de place sur l’ecran avec très peu de ressources prise. MATE c’est Gnome 2 si je comprends bien, c’était pas mal sur Ubuntu 10.04 Gnome 2, bien configurable aussi. <img data-src=" />







Le launcher d’Unity est assez configurable aussi, tu peux augmenter la taille des icônes et lui dire qu’il se masque pour donner un aspect proche du dock de Mac OS par exemple. (chose qu’on pouvait faire avec Gnome 2 et ses panels aussi)

Le manque de personnalisation que je reproche, c’est l’absence des widgets qu’il y avait avant qu’on peut afficher sur l’interface. Par exemple sur mon PC perso, j’aime avoir le moniteur système en permanence ne serait-ce que pour suivre la conso CPU, mémoire, réseau, disque, etc. J’ai aussi mon widget météo bien pratique <img data-src=" />

Je n’ai jamais réussi à les retrouver sur Unity, c’est ce qui me manque principalement. Et le fait que le choix des bureaux dessus n’est pas aussi efficace que sous Gnome 2 où l’on pouvait les choisir en un clic (là on est obligé de passer par l’icône qui affiche les 4 pour sélectionner celui qu’on veut…).



Oui, MATE c’est un fork de Gnome 2 qui garde l’ancienne interface à base de double panel en haut et en bas.



Perso comme disposition, j’ai MATE et les onglets de mon navigateur (Opera) sont placés à gauche. Comme les 34 des sites que je consulte régulièrement sont encore en mode portrait avec gaspillage de la moitié de l’écran, autant que cette partie inutilisée serve.

Et comme les sites utilisant la largeur s’adaptent généralement, c’est transparent.


Le 26/01/2014 à 20h 24







sr17 a écrit :



En quoi le fait de vouloir gagner de l’espace est t’il pertinent sur l’immense (et toujours plus grand) écran d’un desktop ?



En quoi le fait d’utiliser de grandes icones est pertinent avec une souris bien plus précise que le doigt ?



En quoi le fait de supprimer la barre des tâches fait t’il gagner quoi que ce soit sur un desktop ?









  1. Les PC portables sont aussi concernés par cette interface, et eux ont des écrans plus petits. L’évolution du marché nous a montré combien le portable a beaucoup été préféré à la tour classique pour faire du Desktop. (que ce soit dans le home ou le pro)

    Les écrans desktop classiques n’ont pas beaucoup bougé en moyenne ces dernières années, les constructeurs préférant se focaliser sur les écrans de tablettes. Les écrans de grande taille ou de résolution supérieure au 1920x1080 standard du moment sont encore assez coûteux.

    Si à l’époque où Unity a été mise en place pour le netbook l’idée de gagner de la place sur l’écran était bonne, je vois pas en quoi elle n’est plus pertinente maintenant qu’elle est passée sur le desktop classique.



  2. La taille des icônes se modifie aisément. La barre peut même disparaître pour gagner encore plus de place.

    Le fait que le launcher soit à base d’icône permet de l’utiliser sur écran tactile… C’est un plus, comme pour Windows 7.

    Utiliser Unity sur un device full tactile, à mes yeux, c’est impossible. Ou alors l’écran passera son temps à se faire bouffer par le clavier virtuel vu qu’on en a beaucoup besoin dedans pour exploiter le moteur de recherche du menu principal.



  3. On gagne de la hauteur sur des écrans qui s’étirent verticalement. Vieux débat du 16/(9|10) contre le 43 et de sa pertinence dans le desktop type bureautique… Faut bien que les interfaces s’y adaptent, non ?

    Avec la généralisation du 169, pour moi c’est une évolution logique que les contrôles et menus arrivent sur les côtés, ça fait gagner de la hauteur.







    athlon64 a écrit :



    Surtout que meme sur un netbook, manger sur la largeur c’est pas forcément judicieux avec les sites de plus en plus adapté à des ecrans larges. (1610 ou 9)







    Y’a encore beaucoup de sites qui fonctionnent verticalement plutôt que s’étirer sur la largeur de l’écran ne serait-ce que du côté de la presse en ligne.

    N’empêche qu’on aura toujours plus d’espace disponible en largeur qu’en hauteur. Et si la barre latérale peut se masquer, je ne vois pas en quoi elle gêne au final.



    Après comme j’ai dit dans mon premier message, je n’arrive pas à utiliser cette interface sur mon PC perso là où sur le pro ça ne me dérange pas. Elle manque de possibilité d’être personnalisé et j’éprouve certains manques dessus que je n’ai jamais su retrouver pour le moment.

    Pour ça que je suis content de voir MATE, environnement que j’utilise à ce jour, arriver dans les dépôts officiels pour la 14.04LTS.


Le 26/01/2014 à 19h 39







sr17 a écrit :



Soyons clair, l’erreur avec Ubuntu et Windows 8 c’est simplement d’avoir voulu unifier les interfaces mobile et desktop, ce qui n’est optimal ni pour l’une, ni pour l’autre. C’était une vision purement idéologique qui manquait grandement de pragmatisme.



Et l’erreur s’est bien confirmée en être une exactement comme je l’avais prédit.



Après, qu’Unity ait potentiellement de belles qualités pour les périphériques tactiles et puisse devenir une belle réussite, je n’en doute pas un instant. C’est juste qu’il faut proposer la bonne interface pour chaque type d’appareil.







Je le redis : Unity Desktop et Unity Mobile (celle d’Ubuntu Touch) sont autant identiques que le Desktop classique de Windows et le Star Screen.



Unity a été développée à la base pour les Netbook avec comme volonté de gagner de l’espace d’affichage. Elle a depuis évolué un peu mais garde les mêmes principes. Mis à part le launcher d’applications sur le côté (qui est similaire à la barre des tâches de WIndows 7 au final) je vois pas trop en quoi c’est une interface mobile…

A l’époque, Canonical n’avait pas encore de vues sur le mobile à ma connaissance, l’interface étant sorti en 2010 (introduite avec la déclinaison Ubuntu 10.10 pour Netbook justement, elle a été instaurée en standard à partir de la 11.04), année de l’iPad pour les tablettes. A l’époque où tout le monde disait “oh, un gros iPhone sous stéroïdes, ça marchera jamais”.

Parce qu’à cette époque, les netbooks étaient encore en vogue avant de se faire zigouiller par les tablettes.



Donc je le redis : Canonical n’a pas fait l’erreur d’unifier les interfaces mobiles et desktop. Elle a fait deux interfaces différentes justement pour les deux environnements, basées sur le même moteur.


Le 26/01/2014 à 17h 26







sr17 a écrit :



Après, l’erreur qui as été commise aussi bien chez Microsoft que chez Ubuntu, c’est de vouloir unifier les interfaces entre desktop et mobile, ce qui est clairement un non sens.







Canonical n’a pas commis cette erreur. Unity est née à l’origine pour la version Netbook d’Ubuntu avec comme objectif d’économiser un maximum d’espace sur l’écran (qui était réduit sur ces appareils).

L’erreur de Canonical c’est d’avoir sorti Unity un peu vite si bien que l’interface était encore limitée et peu mature.

Avec le temps, elle a quand même gagné en pertinence et stabilité. Après, ça reste une interface en cours de développement qui sort des classiques auxquelles nous ont habitué les autres Window Managers.



Unity Desktop et Unity Mobile n’ont quasi rien à voir.



J’ai toujours trouvé la desktop perfectible et incompatible avec mon usage perso (là où sur mon PC pro étonnamment, elle ne me dérange pas) et pour ça je suis content que MATE soit passé en dépôt officiel pour la 14.04.

Entre Unity et Gnome 3, perso je préfère la première.

La version mobile d’Unity est tout simplement excellente pour le peu que j’ai pu en tester dans l’émulateur Ubuntu Touch.



Raison pour laquelle j’ai hâte de voir les smartphones sous Ubuntu Touch pour jouer avec le mode Convergence, et en espérant ne pas avoir un OS bridé à mort comme les autres du marché.


Le 26/01/2014 à 16h 10







js2082 a écrit :



Une entreprise qui travaille uniquement avec les logiciels google…<img data-src=" /><img data-src=" />

Ou comment scier la branche sur laquelle on est assis<img data-src=" />



Je suis bien curieux de savoir qui c’est, histoire que je ne travaille jamais avec eux.<img data-src=" />







Je ne peux pas citer de nom évidemment ;)



Mais perso ça me viendrait jamais à l’idée d’externaliser ma messagerie ou mes données comme ça vu qu’on a aucune garantie sur la confidentialité réelle.


Le 25/01/2014 à 08h 27







sioowan a écrit :



Ce qui prouve qu’il ne faut pas qu’un seul acteur tienne tout un tas de services.

Je veux dire par ceci, ceux qui ne connaissent rien d’autres que Google.

Faut faire décoller Bing :p







Ca a du leur faire tout drôle chez un client que je connais qui est full Google Apps. (Gmail, Drive, etc)

<img data-src=" />







melkor73 a écrit :



Apparemment, c’était dû à un serveur de configuration qui a déployé des configs moisies… source











SebGF a écrit :



Encore un qui a fait une MEP un vendredi ça. <img data-src=" />









J’ai gagné !! <img data-src=" />


Le 24/01/2014 à 21h 38

Encore un qui a fait une MEP un vendredi ça. <img data-src=" />

Le 25/01/2014 à 11h 13







cid_Dileezer_geek a écrit :



peut-être, mais cette série est unique dans son approche, il faut en regarder au moins un épisode avant de la jeter…







Quand est-ce que je l’ai jetée ?! J’en ai jamais vu un seul épisode, je ne peux pas dire que c’est de la merde… <img data-src=" />



J’ai juste précisé que c’est un thème récurrent.


Le 25/01/2014 à 09h 40







cid_Dileezer_geek a écrit :



La série “Continuum” qui décrit ce genre de sociétés toutes puissantes ayant tout pouvoir sur le monde du futur, semble être le présent en Corée du sud, en attendant que la réalité ne rejoigne encore une fois, la fiction…



ALLER, au travail esclaves <img data-src=" /> , nous avons une dictature capitaliste mondiale à construire.







C’est l’un des thèmes récurrents de la SF, les conglomérats industriels qui ont tout pouvoir face à des gouvernements qui ne sont là que pour faire illusion.


Le 25/01/2014 à 08h 22







Noun29 a écrit :



alors petite question mais en ce moment M\( a mandate KPMG un peu partout en europe afin d'analyser si sur les 5/10 dernières annees les entreprises ont bien payé leur licence...



Est ce que ces chiffres sont pris en compte? Si oui dans ce cas ca voudrait dire que cette annee M\)
a en realite vendu beaucoup de moins licence car les “amendes” sont en train de pleuvoir en ce moment.







Ca me rappelle l’assembleur chez qui j’ai bossé pendant un temps qui avait reçu un courrier de Microsoft le remerciant d’avoir joué le jeu sur les ventes de licences (boites et OEM) de Windows XP à l’époque.



Dire que le chef croyait que les “contrôles de Microsoft” étaient une légende urbaine <img data-src=" />

Pis on a entendu que dans le coin d’autres se sont pris des menaces de poursuites parce qu’ils ont constaté qu’ils vendaient des XP crackés…



Mais bon, côté redressements de licences, je me demande qui est le plus violent… Microsoft ou IBM ? <img data-src=" />


Le 24/01/2014 à 18h 56



Des marges gigantesques avec les licences





Les licences logicielles, l’art de vendre des bits aux clients pour leur mettre bien profond à chaque renouvellement de celles-ci <img data-src=" />

Le 24/01/2014 à 15h 49







Oryzon a écrit :



Grosso merdo leur stratégie a été d’abandonner le hardware pour se recentrer sur les services au sens larges (conseil, dev, stratégie etc) et de maintenir la partie hardware stratégique qui leur permet de vendre ces services (serveurs, processeurs conçus et fabriqués maison …) + la recherche.

Si on regarde leur métamorphose et les résultats, pour l’instant ils ont eu raison.







Et le software. IBM a racheté pas mal de boîtes au fur et à mesure du temps et a désormais un panel de progiciels pas mal utilisé en entreprises.

Genre la gamme de produits Tivoli, Sterling Commerce, Websphere…



Sinon oui, ils laissent tomber le hard x86 du fait de la faible rentabilité. Dans les PDM, IBM est toujours premier en termes de valeur et non de volumes, mais c’est surtout grâce aux zSystem et pSystem qui coûtent la peau des roupettes en matos, contrat de maintenance et compagnie <img data-src=" />


Le 24/01/2014 à 13h 24







JoePike a écrit :



Le jeu X86 64 bits a été mis en place par AMD



Il y a bien longtemps que le 64 bit existait sur d’autres archi

Je me souviens d’un Cray qui dégueulait ses données sur un mainframe ( 370 IBM) , et le foutait au tas dans les 30 secondes qui suivaient parce que ça arrivait nettement trop vite.

On n’était pas encore dans les années 80



OUI je sais

<img data-src=" />









Comme j’ai donné le nom juste avant je pensais que ça suffirait, mais c’est bien de le préciser quand même.


Le 24/01/2014 à 12h 28







Gratstein a écrit :



Bonjour,



Pardonnez mon manque de culture mais que signifie une architecture x86 pour un serveur vis-à-vis d’un CPU 64 bits? Ca existe des serveurs x64? On peut avoir un CPU 64 bits sur un serveur x86? Et virtualiser des OS 64 bits sans limitations?



Merci pour votre partage de connaissance :)







x86 c’est le jeu d’instruction du CPU créé par Intel. Un CPU x86 64 bits ça signifie qu’il a un jeu étendu par rapport à un 32bits. Le jeu 64bits a été mis en place par AMD puis repris par Intel ensuite aussi.

Pour simplifier.



Ici ça signifie : IBM abandonne sa gamme de serveurs à base d’Intel. Ils conservent encore ceux en architecture PowerPC.


Le 24/01/2014 à 10h 19







luxian a écrit :



Bon, il n’empèche qu’IBM fait petit à petit comme Alcatel … si ça continue, dans 20 ans l’entreprise n’existe plus. <img data-src=" />







IBM c’est pas que des serveurs. Ils ont encore eu le record du nombre de brevets déposés en 2013.

Plus la recherche, les mainframes, les services, le software, etc.



Sont pas prêts de disparaitre à mon avis.


Le 24/01/2014 à 13h 20







FunnyD a écrit :



Ils pourraient créer la marque Nakio….<img data-src=" />







Ca fait copie chinoise douteuse <img data-src=" />


Le 24/01/2014 à 11h 58







Jarodd a écrit :



It’s not a bug, it’s a feature : désolé Google, c’est déjà fait <img data-src=" />







C’est aussi ce qu’ils peuvent dire du bug de la reconnaissance vocale qui enregistre en permanence sur Chrome <img data-src=" />


Le 24/01/2014 à 06h 15







ojbis a écrit :



du coup ils ont combien de client Virgin ? Parceque la news parle de l’évolution (-111 000) mais donne pas le chiffre… -100 000 sur 1 million c’est quand même pas pareil que -100 000 sur 10 millions… (je crois qu’ils sont entre 1 et 2 millions mais je trouve la news un peu incomplète sans cette info :( )







L’article BFM TV en lien dans la news parle de 1.7 millions en juin 2013.


Le 23/01/2014 à 18h 19

Pisseur de code dans une ville de sauvages, tu parles d’une opportunité.



/me sent qu’il va se faire des amis <img data-src=" />

Le 23/01/2014 à 18h 01







dualboot a écrit :



Un code d’erreur mystérieux c’est mieux qu’un code d’erreur qui dirait “Unknown Error”, ça passe plus facilement auprès du CONsommateur. Genre il se dit qu’avec son numéro, l’erreur est déjà référencé et que le constructeur est sur l’affaire. <img data-src=" />







Et là….



“An error occured in module : Random Error Code Generator

Error Code : 1125554487zç”



<img data-src=" />


Le 22/01/2014 à 18h 18







charly_69 a écrit :



un petit rappel de 2009 <img data-src=" />



pcinpact.com PC INpact







C’est pas gentil de mettre le nez dans le caca des oiseaux de mauvais augure qui annoncent la mort de tout le monde.


Le 22/01/2014 à 06h 31

Aaah les objets connectés qui apprennent de nos usages pour notre bien le plus strict.



Comme ça demain, l’auto cuiseur intelligent connecté va nous dire : “Ecoute moi bien mon p’tit, t’es tellement mauvais à la cuisine que j’ai décidé de te prendre des cours. Tu commences lundi, l’autorisation de prélèvement sur ton compte a déjà été faite et j’ai payé l’année avec ta CB.”

Le frigo intelligent connecté fera directement ses courses sur Machin Drive (suivant les recommandations du WC intelligent connecté après qu’il ait analysé les restes) et la voiture intelligente connectée ira les chercher tout seul sans nous demander notre avis (c’est pour notre bien BORDEL !). (au fait, elle a fait le plein au passage)

Le thermostat intelligent connecté trouvera la couleur des murs un peu à chier, secondé par le capteur de luminosité intelligent connecté qui trouve que la pièce n’est pas économique en lumière. Ils nous inviteront d’un, à changer de femme parce que ses goûts en matière de déco sont pourris (hop, inscrit sur meetic, tu cliques tu niques) et au passage il ont invité un peintre.

Comme ça, plus qu’à s’allonger dans le canapé intelligent connecté, qui nous prendra de temps en temps un RDV avec un kiné à domicile parce qu’il nous trouve un peu tendu dans le dos, et à laisser la TV intelligente connectée choisir ce que nous devons regarder. Hein quoi ? tu veux regarder un porno ? <img data-src=" /> petit cochon, je te mets à la place un documentaire sur des soldats qui tuent des méchants et les torturent, c’est mieux et plus sain.



J’aime cette vision de l’avenir. Ca me rappelle le vaisseau de colonie des humains dans le film Wall-E avec un peu de The Island <img data-src=" />

Le 21/01/2014 à 18h 53







Clad omnislash a écrit :



Je me demande si une console Nintendo qui serait aussi puissante que le ps4 aurait pas fait changer les avis, car je lis beaucoup de chose sur xbox1/ps4 sur les joueurs, et c’est beaucoup la puissance qui reviens dans les sujets. Pas sure que le mobile aurait apporter quoi que se soit à nintendo dans ces conditions.







Parce que tout le monde aime se branler sur les fiches techniques.


Le 21/01/2014 à 11h 43







misterB a écrit :



Enfin avant internet c’était quand même pas facile d’avoir accès au porn et pourtant l’humanité s’est bien débrouillée <img data-src=" /><img data-src=" />







Ca montre surtout combien les moeurs ont évoluées.



A une époque, la pornographie c’était la photo/peinture d’une femme qui montrait un orteil derrière les 12 tonnes de tissu de sa robe.



De nos jours montrer une gonzesse à poils pour bouffer un yaourt n’émeut même pas l’ado prépubert avec son cocktail hormonal en ébullition…



Et qu’on est en train de bien régresser <img data-src=" />


Le 20/01/2014 à 18h 06

Concernant la manette de N64, il me semble avoir déjà vu qu’elle n’était pas réellement analogique mais numérique.

Le stick fonctionnait sur le même principe que les souris à boule.

Le 20/01/2014 à 05h 29







Narcisse d’oyo a écrit :



c’est con, car avec tout ce cache qui vas apparemment sauver Nintendo. il aurait mieux fait de les utiliser pour concevoir une WiiU aux capacité des PS3 et X1.

en faisant comme cela il aurait put faire les même jeux que sur WiiU (qui peut le + peut le -) et contenter tous les éditeurs et concepteurs de jeux avec de la puissance.



et là il aurait tué la concurrence.







La dernière fois qu’ils ont fait des consoles puissantes, ça s’est soldé par un désintérêt des éditeurs et du public.

Leur précédente expérience dans le domaine du salon a prouvé qu’il n’est pas nécessaire de fabriquer un super calculateur de la NASA pour vendre des consoles par paquebots entiers.



Plutôt que de chercher des terraflops et shaders machintruc, Nintendo cherche des gameplay et des nouvelles choses. La précédente idée a cartonné, l’actuelle peine à décoller.


Le 19/01/2014 à 10h 44







Nathan1138 a écrit :



Franchement, c’est de moins en moins vrai.



Compare les Zelda sur DS (Phantom Hourglass, Spirit Tracks) et celui sur 3DS (A link between worlds).



Ceux sur DS se contrôlaient avec l’écran tactile (en mode “youpikai c’est trop bien le motion touch gaming du 3ème millénaire”).



Celui sur 3DS (qui est absolument excellent soit dit en passant) se joue de façon rigoureusement standard, au stick. Le tactile ne sert absolument à rien à part à fluidifier l’interface des menus (waaaa, heureusement qu’on a mis du tactile pour faire glisser le boomerang sur son slot dis donc ! <img data-src=" />).



Idem pour Super Mario 3D World sur Wii U : le gamepad avec écran est rigoureusement inutile, à part dans 3 ou 4 niveaux où on te demande de toucher des trucs. Ce qui est plus perturbant qu’autre chose puisqu’il faut faire des aller-retours entre ta TV et ta manette… qui affichent la même chose. Weird. Bilan : tu peux très bien y jouer au paddle standard, l’experience n’en sera même que plus confortable (enfin je trouve…).



On dirait que même les développeurs first party ont du mal (ou n’ont pas envie) d’utiliser les spécificités de la console.







Pour le Zelda de 3DS effectivement un peu une régression en termes de gameplay. (ce qui n’empêche pas que le jeu soit bon effectivement)

C’est un peu le revers d’avoir mis un écran différent (le 3D) sur la console, ça limite plus les possibilités que la DS classique avait. Résultat, le tactile redevient sous exploité comme dans la plupart des productions tierces de DS parce qu’on préfère mettre l’action sur l’écran supérieur à cause de la 3D.



Comme pour la Wii U au final, le retour à un pad plus conventionnel fait que le “motion gaming” en prend un coup.


Le 17/01/2014 à 21h 52







RaoulC a écrit :



Hum hum, tu parle des jeux sur leur console en général, ou de leurs franchises?

Parce que dans les franchises de Nintendo que je connais, on voir rarement des mauvais jeux …



(Les laves-linges durent plus longtemps avec Ganon <img data-src=" /> <img data-src=" /> )

<img data-src=" />







Je parlais surtout du fait que beaucoup rabâchent que Nintendo “c’est du Mario et Zelda en boucle réchauffé”. Alors qu’en général l’industrie du JV, c’est aussi les mêmes titres qui tournent en boucle…



C’est sur qu’en réduisant chaque nouveau Mario en “encore le plombier moustachu qui va sauver la cruche” en oubliant le fait qu’ils sont souvent acclamés comme merveilles de gameplay… Ca aide pour rester cantonné à cette idée.



Nintendo améliore toujours ses licences avec les nouveaux supports qu’ils créent pour dire “voilà comment on exploite la console”. Là où ailleurs, on ajoute juste 3 polygones et une texture et on dit “ouais c’est un nouveau jeu” parce que les consoles ne révolutionnent que très peu leur gameplay.


Le 17/01/2014 à 20h 42

Nintendo devrait renommer la Wii U en Super Wii pour voir <img data-src=" />



(c’est dingue cette incompréhension globale… A croire que Nintendo a sur estimé l’intelligence moyenne)

Le 17/01/2014 à 17h 51







dricks a écrit :



BigN arrivera-il à sortir un nouveau jeu (et quand je dis nouveau jeu, je ne parle pas du 28ème remake du 15opus de leur franchise phare, hein) ou continuera-il à fourguer en boucle les mêmes jeux ?

Suprise surprise !

Ou pas.







Suffit de voir les meilleures ventes où c’est systématiquement du Call of Machin, Battletruc, Footeux cinquante-douze, Bagnole Chose 42, etc…



A part l’exclue d’un studio de constructeur une ou deux fois dans l’année, le marché du JV c’est comme la playlist d’NRJ : les 15 mêmes merdes qui tournent en boucle.



Donc Nintendo est loin d’y faire exception.


Le 17/01/2014 à 13h 54







gogo77 a écrit :



Oui mais quand on voit qu’on galère à remonter la pente, il vaut mieux partir et laisser quelqu’un d’autre rattraper le coup plutôt que de s’enfoncer un peu plus ^^



Mais bon, même si la Wii U n’est pas un franc succès et que la 2DS n’est pas l’idée du siècle, je pense que la 3DS leur permet encore de limiter la casse car il y a quand même toujours des jeux qui se vendent très bien sur cette console. Peut être que la Wii U s’imposera avec le temps, mais rien n’est moins sûr :)







Faut voir, la mentalité japonaise est quand même très différente de ce point de vue.

Je pense plus comme Kevin que Nintendo a vu trop gros et a du tenter de vouloir rassurer ses investisseurs, mais ça n’a pas pris <img data-src=" />



Par contre je pense qu’ils ont encore le temps avant de connaître un destin à la Sega qu’on leur prédit depuis… au moins tout ça maintenant. Le fait qu’ils ont une console en vogue (la 3DS vend autant que les autres consoles au cumul au Japon) et une trésorerie assez conséquente doit leur permettra d’avoir assez pour tenter de corriger le tir.



Mais c’est pour ça que j’attends de voir la gueule de la PS4 au Japon sur le temps. Je ne doute pas qu’elle risque de cartonner comme toujours à sa sortie, mais dans le temps qu’en sera-t-il au Japon ?

Je pense que ce n’est pas anodin le fait que Sony (et même Nintendo pour la Wii U, mais avec un délai moindre) servent le Japon en dernier pour la sortie de nouvelles consoles.


Le 17/01/2014 à 13h 16







Ashuura a écrit :



Bon bah on connait la date de départ de Satoru Iwata…







Il a annoncé ne pas vouloir démissionner. Donc c’est plus les actionnaires qui risqueraient de le lourder à terme.



Ce qui est quand même plus à son honneur… Je préfère voir un mec essayer de rattraper la merde (d’autant qu’il a quand même assuré quelques gros succès à Nintendo par le passé, y’a guère que la Wii U qui fait la gueule) plutôt que de le voir démissionner et dire “ciao bande de nazes” en laissant le caca pour un autre.



En espérant qu’ils arrivent à sortir de quoi manger à la Wii U cette année comme ils ont fait pour fin 2013 qui a aidé à la booster. (le titre qui me fera acheter la console, “X” de Monolith est prévu cette année)



Et on verra si la PS4 au Japon confirme la tendance qui est que le marché des consoles de salon est moribond là bas au bénéfice de la portable.



Edit : en parallèle à cela, Iwata aurait l’intention de voir du côté du marché mobile…


Le 18/01/2014 à 18h 55







atomusk a écrit :



Je suis pas certain que 22 gouvernements aient envie de savoir quelle est la température dans ta chambre à coucher … <img data-src=" />





Serieux, on critique à tout bouts de champs que Google est une entreprise de service qui ne vent que de la pub, et là les derniers achats sont pour des produits physique (et cher … 129$ le capteur de fumée … et la robotique/voiture connectée), et tout le monde reste sur l’idée que FOOOOOORCEMENT ils l’achetent pour les données collectés …



ILS SE DIVERSIFIENT … un jour peut être que la pub ne sera pas 95% de leur chiffre d’affaire si ils vendent des thermostats à 200€ <img data-src=" />







Sans aller dans la paranoïa conspirationniste, je dirais juste que collecter ce genre de données peut permettre à Google de vendre des études de marché assez poussées et précises, à la limite du nominatif.



“Votre appartement se refroidi trop vite ? pensez à faire refaire votre isolation”.

“Votre chaudière au gaz n’est pas adapté, prenez une chaudière à trucmuche, la pose est offerte en ce moment”

etc, etc



Bref, un bon filon pour eux à ce niveau.


Le 18/01/2014 à 16h 43







Xima a écrit :



On peut imaginer qu’il puissent intégrer un capteur de présence et autres et collecter des données des habitudes afin d’optimiser la consommation.







Ca existe déjà comme solution.



Exemple trouvé sur le net :http://www.atlantic.fr/nos-services/questions-reponses-avant-vente/faq-chauffage…



L’intérêt des solutions connectées tiendrait plus dans la possibilité de les contrôler à distance (genre je sors du boulot, je monte le thermostat pour qu’il fasse déjà chaud chez moi, ou le truc qui consulte des éventuelles prévisions météo pour s’adapter…).


Le 18/01/2014 à 11h 07







metro557 a écrit :



Mon métier d’électricien va devoir évoluer ! Il va nous falloir un pc portable ou une tablette pour tous nos dépannages d’ici quelques années !







Comme les mécano qui ont besoin d’un PC pour interroger l’ordinateur de bord des voiture modernes.


Le 18/01/2014 à 11h 04







atomusk a écrit :



[HS- blague <img data-src=" />]T’es pas mon pote MEC[/HS]

C’est à dire ? parce que l’Obsolescence programmée est un gros amas de craintes, concepts, et parfois mythes …



Qu’on va inventer un SUPER THERMOSTAT qui ringardisera celui là ? Que dans le future on aura plus de Wifi ? Le service Web va disparaître ? Que l’électronique va tomber en panne au bout de 5 ans ?

Ou juste FOOOOOOORCEMENT ? <img data-src=" />



Justement l’apport de Google fait que le service est géré par Google entraîne que le service web sera pérennisé, le fait que le périphérique soit connecté et ait une Electronique “qui accepte les mises à jour”, le rend mieux adapté que beaucoup, et il est déjà fait pour accepter les évolutions de ton chauffage (gère différentes techno de chauffage/clim au mieux), et à voir les cartes, tu as pas de condo dégeu, de fils qui courent, c’est propre et même iFixit dit que c’est super réparable ….







Autant je suis contre l’alerte à “l’obsolescence programmée” lancée à tout va, autant quand je vois que les appareils de plus en plus connectés sont abandonnés de plus en plus vite par leurs constructeurs…



Voir les smartphones, tout connement.



Et on voit que ces appareils ne sont pas forcément fiable côté sécuritaire (ce que tu évoques toi même). Un malware qui les dérègle, boom, 3000 boules de facture EDF/GDF/autre parce que le truc a foutu le chauffage à fond durant des périodes où personne n’était là. Mais le constructeur a corrigé, tout va bien, mais oh dommage, votre appareil n’est plus supporté. <img data-src=" />



Ne va pas me dire que beaucoup ne seront pas tentés par cela, voir le marché des smartphones à nouveau.


Le 18/01/2014 à 16h 46







cid_Dileezer_geek a écrit :



En prenant la syllabe “bra” de bracelet puis la lettre “N” pour ‘Nélectronique’ et la syllabe “leur” pour “l’heure”, je propose le mot braNleur… <img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />







<img data-src=" />


Le 17/01/2014 à 22h 00







Youka a écrit :



Quelqu’un a les specs du modem qu’ils fournissent?









http://4gltemobilebroadband.wordpress.com/2012/08/20/huawei-b593-4g-lte-cpe-indu…



Pour les services comme je disais dans un précédent post, il faudrait contacter le service commercial de Bouygues Tel Pro. La description sur leur site est très vague, invitant à les contacter.

Est-ce que PCI a cherché à se renseigner plus en détails sur celle-ci ?


Le 17/01/2014 à 12h 29

Il faut pas oublier que c’est fait pour être un point fixe. L’état de la couverture ne changera pas donc et au pire, il s’améliorera avec le déploiement de nouvelles antennes. (au début ça risque de pas être top si le ratio du nombre d’abonnés sur une antenne augmente plus vite que le nombre d’antennes environnants)



Ce genre de service peut éventuellement être intéressant pour un commerce (par exemple) qui se trouve dans une zone mal desservie en ADSL (et en ville ça existe), sans cablo opérateur ni liaison fibre et qui n’aura pas les moyens qu’OBS ou Complétel ou que sais-je lui tire une fibre à 500 boules par mois.



Du fait des engagements de couverture de population, la 4G a plus de chances d’être répandue que la fibre ou un accès ADSL décent dans le temps.



L’offre est limitée en terme de cibles, mais elle a le mérite d’exister. Après, faut voir les détails. Mais pour ça, faut être un pro pour contacter le service commercial <img data-src=" />

(à moins que PCI ne s’en soit occupé également pour en savoir plus)

Le 17/01/2014 à 09h 06







lsPCI a écrit :



Cela dit, tout cela est bien beau (ou pas), mais la fibre on se la met toujours où je pense ou ils comptent commencer le déploiement pour cette décennie ?







http://www.dslvalley.com/bouygues+deployer+fibre+oise-13-01-2014.html

http://www.ariase.com/fr/news/fibre-optique-jura-sdtan-article-3107.html

http://www.orange.com/fr/actualites/2014/Collectivites-locales/janvier/Le-Puy-en…



Ca avance progressivement.



Richard a annoncé en fin d’année 2013 être passé à une moyenne de 8000 nouveaux abonnés par mois et vise un taux de pénétration de 25% des 2 millions de lignes éligibles pour 2014. Par contre, le plan THD d’Hollande pour 2022, c’est de la SF pour les opérateurs.



http://www.ariase.com/fr/news/retro-2013-fibre-optique-article-3096.html



Le tableau des communes montre surtout que le seul à y investir réellement, c’est Orange. D’ici quelques années, ça va chouiner chez les autres opérateurs je le sens bien.

Ou alors ils vont préférer exploiter leur réseau 4G pour se créer une couverture THD annexe, mais bonjour la qualité et les débits si y’a plein d’abonnés qui utilisent la 4G comme “accès fixe” <img data-src=" />

Cette méthode ne peut être viable que pour les zones mal desservies par l’ADSL (ce qui existe aussi en ville. Mon cas, mais j’ai la chance d’avoir la FTTLA en parallèle).


Le 17/01/2014 à 19h 05







Paulo Paulo a écrit :



Pffff… Difficile de choisir, mes parent pensant à changer leur télé Techwood cathodique, on a d’abord pensé à une bonne télé Samsung Full HD (UE46F6510), mais maintenant on se demande s’il vaut mieux acheter de la 4K… <img data-src=" />







Perso j’ai acheté une TV 720p car les 1080p coutaient encore assez cher à l’époque.

Avec l’arrivée des 4k, j’attends de voir les 1080p baisser un peu et sauter sur un modèle bradé (fin de série, soldes…) et hop, reparti pour quelques années <img data-src=" />



Ca sert à rien d’acheter les derniers cris, en plus tu risques de subir les défauts de jeunesse…


Le 17/01/2014 à 13h 20







Mithrill a écrit :



Idem ! <img data-src=" /> Bon en revanche j’ai de plus en plus de mal avec Ubuntu…

je vais finir par retourner sur Fedora ou bien tenter de voir du coté de Debian..







Savoir que MATE est en phase de passer dans les dépôts officiels pour la 14.04 m’a rassuré un peu. L’intégration et les risques de conflits seront mieux je pense.

Je l’ai actuellement sur la 12.04 mais c’est un peu buggé parfois et perfectible.

(après on verra d’ici les premières beta ce qu’il en sera)


Le 17/01/2014 à 12h 39







zefling a écrit :



Avec l’arrivée de Flash 12, on peut donc prédire une montée de Chrome ? :)







On verra bien, perso je m’en fous un peu de la PDM de Chrome vu que j’utilise un navigateur obsolète sur un OS de communiste <img data-src=" /> (Opera 12.16 sous Ubuntu)

Les sites “trident-optimized” deviendront juste des sites “blink-optimized”. La différence sera inexistante pour moi <img data-src=" />



Mais bon, c’est amusant de voir qu’on félicite Chrome pour ses “exploits” alors qu’il utilise les mêmes méthodes que n’importe quel autre crapware pour se déployer (genre les conneries qui pourrissent le Windows d’un PC de constructeur). <img data-src=" />


Le 17/01/2014 à 09h 17

J’ai eu droit à une mise à jour ce matin de Flash sur mon PC Windows et qu’est-ce qu’il me propose coché par défaut ? Chrome.

Bref, rien de surprenant de voir ce truc monter en PDM vu qu’il est fourni comme pourriciel avec n’importe quel truc installé en masse sur les PC.



J’ai fait attention par ce que je sais qu’il est fourni d’office, mais l’utilisateur lambda, il va cliquer sur le gros bouton “TELECHARGER” et pas sur la petite case à décocher…

Le 17/01/2014 à 12h 23

Et bien sûr, Google sera tenu au secret médical et ne partagera aucunement les infos à des éventuels partenaires pharmaceutiques, non non non.



Demain, Google inventera l’anus artificiel connecté pour nous envoyer des recommandations de dragées Fuca en cas de constipation. (suivez la ligne jaune)



Je vous renvoie vers l’épisode de l’Eye-Phone de Futurama. A ce rythme, inutile d’attendre un millénaire pour que ça se produise. <img data-src=" />