votre avatar

KP2

est avec nous depuis le 15 mars 2006 ❤️

5589 commentaires

Le 05/04/2014 à 21h 03







arno53 a écrit :



Ok.. Donc tu préfères l’époque où l’on devait développer 2 fois les mêmes fonctionnalités avec des api différentes et où on devait de toute façon penser à 2 interfaces aussi … ?







Mais ca sera toujours le cas, c’est bien ce que je dis…







arno53 a écrit :



Comme ça a été dit plus haut entre développer le coeur d’une app comme vlc afin qu’elle tourne sur pc, tablette, phone, xbox et une dizaine d’interface (pour parer les différents scénarios) et coder 10 vlc avec 3 api différentes et là aussi une dizaine d’interfaces, je te laisse choisir l’option la plus débile…







Ouais mais les applis comme VLC ou le “moteur” represente le plus gros morceau de l’appli sont loin d’etre les plus nombreuses.

L’extreme majorité des applis ont un “moteur” tres basique voire inexistant et c’est la GUI qui prend le plus de temps a faire.







Mr.Nox a écrit :



Si si t’applaudis en face quand le package visant différent form factor est unifié mais la c’est du coup c’est de la daube.







T’es grave mon gars… j’ai dit des mechancetés sur ta mere ou bien ?

J’applaudis que dalle ! ou t’as vu ca ?

Je te mets au defi de trouver la moindre remarque positive de ma part sur ce sujet sur n’importe forum…

Et puis quel rapport avec le packaging ? On s’en fout du packaging !!



Le probleme dans ce cas, c’est pas le fait de coller 2 ou 3 applis dans le meme package, c’est d’essayer de faire croire (encore) qu’on peut coder une appli une fois et la faire tourner automagiquement sur des appareils aussi differents qu’un desktop et un smartphone.

C’est du bullshit. Et y’a encore des types pour tomber dans le panneau…







Mr.Nox a écrit :



D’ailleurs j’aimerais que tu me montres ou ça fait 20 ans que MS en parle. Des rumeurs a la limite (et encore) mais du concret non.

J’ajouterai que Microsoft vient de mettre un boulevard a la concurrence sur ce point.







MS tenait deja ce discours a l’epoque de WinMo pour rappel et avec .Net, MS disait qu’avec le meme code on faisait une appli “lourde” standalone et une appli web…



Le 03/04/2014 à 21h 01







Mr.Nox a écrit :



Quand il faut se farci un dev sur iOS avec plusieurs resolution pour le même socle de code t’applaudit mais quand c’est sur Windows, ça pose problème… Assez drole tout de même.







J’applaudis rien du tout… tu prends tes reves pour des realités…



Je suis juste en train de dire que MS continue encore et toujours d’essayer d’enfumer le monde avec leur vieille marotte qu’ils trainent depuis 20 ans…

Ca me deprime de voir toujours autant de gens qui continuent a trouver ca genial.

Et je me demande si MS est pas en train d’y croire lui meme.



Le 03/04/2014 à 20h 03







arno53 a écrit :



Non tu fait des fichier xaml ou HTML5 différents …



En comparaison c’est comme le responsive design sur le web : tu ne ne refais pas ton javascript a chaque fois … juste le html …







Ouais mais dans la pratique, c’est loin d’etre magique… Globalement, le responsive design revient a envisager les 4 ou 5 types d’ecrans possibles et bidouiller comme un porc pour que tout ca rentre dans le meme tas de js+css…


Le 03/04/2014 à 20h 01







JustMe a écrit :



Heu as tu la news avant de la commenter, je t’aide je re cite l’article:







Soit une application mais plusieurs interfaces en fonction du type d’appareil (PC / tablette / smartphone / XBOX One)



C’est juste parfait! comme ça on se tapera pas des applications téléphone en mode étiré pourave comme c’est le cas sur les tablettes Android (et qui était le point fort de Windows 8.x sur tablette puisque toutes les apps étaient strictement pensé pour un écran au de là de 7” :) )







Ouais sauf que dans la majorité des applis, le moteur est bien souvent la partie la plus “simple” à coder. En tout cas, c’est bien souvent ce qui est le plus rapide a faire.

Et c’est la GUI et les details d’ergonomie qui consomme du temps donc si on gagne rien sur cette partie, a quoi ca sert ?


Le 03/04/2014 à 19h 49







arno53 a écrit :



Ah ces bons vieux troll de Next INpact ….

Ils en ont pas marre de raconter de la merde sans jamais lire les news ?



L’idée de MS c’est d’avoir un code unique mais avec des interfaces adaptés tenant compte des spécificités…



Mais en effet tu peux continuer à tourner en rond comme un chien qui court apres sa queue …







Ouais donc autrement, tu continues a ecrire 3 ou 4x ton appli… genial…

La seule nouveauté, c’est qu’on fout tout ca dans le meme package en fait ?


Le 03/04/2014 à 19h 33

A la bonne vieille arlésienne de MS…

Ils en ont pas marre de se prendre des murs avec cette idee debile qu’ils trainent depuis des dizaines d’annees ?



Tant que les mecs n’auront pas compris qu’un smartphone et un desktop ont des ergonomies radicalement differentes et necessitent donc des applis qui doivent prendre en compte ces specificités, ils continueront encore et toujours a tourner en rond comme un chien qui court apres sa queue…


Le 05/04/2014 à 16h 29

Chez moi, ça vient de revenir à linstant

Le 01/04/2014 à 18h 39

Salauds !





<img data-src=" />

Le 01/04/2014 à 14h 30







Danytime a écrit :



Ils peuvent prolonger indéfiniment les offres comme ça ?







Ce sont des negos privées, ils font ce qu’ils veulent…







Danytime a écrit :



Le choix est fait, aller hop on signe. En plus il faut en profiter, vu qu’en ce moment il n’y a pas de ministre de redressement productif élu qui veut imposer sa mafia à 3 opérateurs.







Si Bouygues fait un all-in de ce genre, c’est qu’il a de tres fortes assurances gouvernementales pour que ca passe…

Montebourg fait vraiment n’importe quoi…


Le 27/03/2014 à 15h 56







atomusk a écrit :



Je pense que la réponse est : TitanFall existe aussi sur PC

<img data-src=" />



J’aime bien l’idée en fait <img data-src=" />







Ouais mais d’une maniere generale ?



Parce que j’ai eu une Xbox 360 pendant qq temps recemment et je jouais de temps en temps a BF3 sur le Xbox Live. Y’avait souvent des mecs qui se plaignaient que tel ou tel joueur “trichait”… et je vois pas comment les mecs pouvaient faire…

Si t’as une puce dans ta console, tu peux faire a peu pres ce que tu veux mais tu peux encore te connecter sur le Xbox Live ?


Le 27/03/2014 à 15h 46

Comment ca marche la triche sur console ?

On peut installer des programmes ?



Ca me parait etonnant…

Le 18/03/2014 à 13h 06







CUlater a écrit :



Toujours pas homologué?<img data-src=" />







“homologué” ?


Le 18/03/2014 à 10h 17







brazomyna a écrit :



L’offre est déjà pas mal en soit pour la plupart des gens.



Par contre, à titre personnel en tant que frontalier, j’envisagerai de changer de crémerie quand on aura une vraie offre de roaming DATA utilisable 365 jours par an.







Ca devrait pas tarder car je crois que d’ici qq mois, une directive europeene interdisant le roaming en Europe devrait entrer un vigueur


Le 06/03/2014 à 22h 12







lateo a écrit :



Ça sent le roussi pour sa tranquillité <img data-src=" />







Ouais… le mec fait tout pour rester discret et il va se faire tomber dessus apres ca :/


Le 05/03/2014 à 16h 51







k43l a écrit :



Si ta machine avait 2go Vista marcher comme un XP…







Oui c’etaient les fameux Vista Capable… effectivement, ca “marchait”… de la a etre utilisable…







k43l a écrit :



Et puis à ce moment les Core 2 Duo était déjà sortie. Et ça marchait plutôt très bien.







Mais justement ! Le marché des proc a completement abandonné la course aux GHz pour aller vers la multiplication des coeurs a frequence moindre, le 64bits, la virtualisation.

MS a mis combien de temps pour le 64bits ? Pour commencer a proposer des trucs interessants liés a la virtualisation ?

Et il leur a fallu 2 ans de plus pour pondre un Seven un peu plus leger et optimise pour des coeurs a 2Ghz…







k43l a écrit :



Les Machines était tout simplement sous dimensionner par rapport au bon technologique de l’OS.







Ouais, c’est exactement ce que je dis : ils se sont completement gourrés sur l’etat du marché hard quand ils sortiraient leur OS.

Ca montre clairement une tres mauvaise vision du marché !



Et ils se sont tellement gourrés qu’ils prevoyaient un PC desktop avec 6Go de ram, 4GHz de proc monocore et 200Go de HDD alors que les netbooks etaient en train de faire une percee fulgurante annoncant l’explosion de la mobilité qu’on connait aujourd’hui.

Comment etre plus a coté de la plaque que ca ??


Le 05/03/2014 à 16h 42









A33 a écrit :



J’ai un peu de mal à le croire. Ça ressemble à des excuses ad hoc. Microsoft avait, me semble-t-il, les ressources pour mener tous ces combats de front. Ça ne l’a pas par exemple empêché de trouver le succès dans le domaine des consoles.



À mes yeux, c’est plus l’absence de vision cohérente qui a plombé MS. C’est toujours le cas avec Windows 8, qui propose de bonnes idées mais mal implémentées, et l’OS a le pied sur deux mondes sans être vraiment bon dans aucun, ce qui est médiocre. Leurs concurrents ont su exceller dans leur domaine. MS peine à convaincre dans celui où il est pourtant incontournable.







MS croit toujours a l’OS ultime capable de tout faire a la perfection.

Pour moi, y’a un vrai conflit generationnel dans cette boite et les “vieille ecole” comme Ballmer sont la cause de tous les retards et tortillages de cul techniques.

Mais comme ce sont ces mecs la qui ont monté la boite, qui ont connu des succes planetaires avec windows et office, ils etaient tres puissants et indeboulonnables. Tous les nouveaux projets devaient trouver une facon pour vendre windows ou office d’une facon ou d’une autre donc ca a generé des derives terribles et fait capoter des produits interessants…

Il leur a fallu quand meme un paquet d’echecs pour remettre en cause ce pouvoir et laisser un peu de place aux nouvelles generations.


Le 05/03/2014 à 16h 36



« Si vous regardez comment était la situation il y a dix ans, je pense qu’il est assez juste de dire que certaines choses ne se sont pas passés comme nous le voulions ».

Ca, c’est sur qu’a vouloir faire un OS sur des plans d’evolution du matos completement fantaisistes. Rappelons nous que Vista a ete prevu pour fonctionner avec un bon vieux desktop disposant de 4 a 6Go de RAM et des proc a 1 seul coeur pouvant monter a 4Ghz alors qu’on a pas vu un seul proc grand public depasser les 3Ghz (tout juste) et qu’on a connu la grosse vague des netbook (machines pas cheres mais anemiques) au moment ou Vista est sorti…

Quel manque de vision sur le marché !





« Je regrette qu’il y ait eu une période au début des années 2000 où nous étions si concentrés sur ce que nous avions à faire autour de Windows que nous n’étions pas capable de redéployer les talents vers ce nouvel appareil appelé le téléphone. Le temps donc nous avons manqué est celui que nous avons investi dans ce qui est devenu Vista, et j’aurais aimé que nos ressources soient déployées de manière assez différente […]. Ce qui aurait été meilleur pour Windows et probablement meilleur pour notre succès sur les autres formes de produits ».





Ah ! ca ! il peut regretter mais c’etait le 1er a choyer sa vache a lait et oublier completement que tout a une fin et qu’il faut preparer l’avenir.



C’est sur que pour optimiser les revenus financiers a court terme, Ballmer a ete un champion mais pour prevoir l’avenir, garder une image d’entreprise jeune et innovante, inventer de nouveaux marchés, y’avait plus personne…

MS aurait du le debarquer y’a au moins 5 ans mais il n’est jamais trop tard pour bien faire.

Le 05/03/2014 à 15h 01







coket a écrit :



Je pense que si il y a de telles réactions, c’est que quelques libristes moins sages que toi, orgueilleux, condescendants, ont eu tendance a traiter tout non libriste avec beaucoup de mépris et énormément de certitudes sur la supériorité naturelle de Linux en terme de sécurité…







Personnellement, je pense que Linux a une superiorité naturelle en terme de securité mais pas dans les failles de secu dans le code mais plutot au niveau de l’architecture du systeme.

Mais c’est plus du a son heritage Unix qu’a la qualité des gens qui font linux.

MacOSX est, pour moi, dans un cas de figure equivalent.



En fait, c’est windows qui est mal concu surtout… Il a peut etre (et meme probablement) moins de failles que linux ou macosx mais les impacts sont tout de suite beaucoup plus grave a cause de son architecture interne, de sa conception et des choix de configuration par defaut. Les choses se sont ameliorées depuis 7 mais ca n’est pas folichon pour autant…


Le 05/03/2014 à 13h 35







CR_B7 a écrit :



Tout a fait d’accord, mais ce n’est pas une garantie.

Si la défense prend du linux, elle peut (a grand renfort de €) s’assurer qu’il n’y a pas de backdoor, mais c’est pas juste avec un achat open-source qu’elle en aura la garantie.







Tout a fait…

Le Libre n’a jamais proposé de garantie sur quoique ce soit.

On peut voir effectivement qq jeunes idealistes qui connaissent tres mal le fonctionnement du Libre venir raconter l’inverse dans des forums mais il faut etre aussi idiots qu’eux pour croire a ce qu’ils racontent.



D’ailleurs, coté garanties, je sais pas si qqn ici a deja lu des licences de logiciels proprietaires mais ils ne proposent pas plus de garantie d’aucune sorte… meme pas celle du bon foonctionnement de l’appli et encore moins celle de la securité ou l’absence de risque pour vos données. Microsoft, par exemple, se dedouane TOTALEMENT de ses produits. Et il est loin d’etre le seul… Je ne sais meme pas si c’est vraiment legal en France..



Bref, tomber sur le dos du Libre a cause de cette annonce, c’est juste ridicule. Et ca denote surtout une tres mauvaise connaissance non seulement du Libre mais aussi du proprio et du marche informatique d’une maniere generale de la part des auteurs des commentaires.


Le 05/03/2014 à 13h 12







CR_B7 a écrit :



Et dire qu’on nous dit a longueur de temps que l’open source est la parade a la NSA.



En fait personne ne lit le code, ou en tout cas, pas des personnes qui le comprennent.







Ben c’est quand meme mieux qu’un logiciel completement fermé de toute facon…


Le 05/03/2014 à 13h 11







seb2411 a écrit :



Les deux comptent. Un bon dev qui fait du bon code et qui est a l’origine du projet c’est important. Mais avoir une communauté derrière avec d’autres devs compétents c’est important aussi. Ca permet de croiser les idées, d’apporter une autre manière de voir les choses, de gommer certaines mauvaises pratiques des uns et des autres, souvent un complémentarité, ça permet aussi de relire le code et d’avoir un processus de qualité mieux foutu.







Ouais bien sur, il vaut toujours mieux avoir le beure et l’argent du beurre avec un noyau de dev motivés et tres competents epaulés par une large communauté reactive et participative. C’est evident.



Mais quand il faut choisir, Je prefererai toujours la petite equipe motivée a un gros groupe de “moustiques”.



Et dans les faits, ce sont toujours les projets avec un leader meme tout seul qui survivent contrairement aux projets qui federent une communauté qui doit s’auto-organiser.

Les exemples classiques du 2e cas, ce sont les editeurs qui decident un beau jour de “liberer” un de leur logiciel comme moi je vais poser mon offrande a mere nature le matin. Ils font un peu de buzz, ca genere vite une communauté mais comme y’a pas de leadership (car, bien evidemment, l’editeur souhaite completement se retirer du projet) alors ca se vautre vite en qq mois.



Mais quand un projet mené par un noyau de dev solides arrive a faire monter la mayonnaise et creer une large communauté, c’est bingo. Mais c’est pas le cas general malheureusement…


Le 05/03/2014 à 11h 41







Jed08 a écrit :



Il va falloir que les libristes de bonne foi ouvrent les yeux un peu !

Il y a plein de trolls dont le principal argument est : c’est open source, c’est lisible par tout le monde (sous entendu “compétents” car je doute que ces gens là fasse un audit de code chaque soir avant de dormir) donc c’est sécurisé (puisque personne ne trouvent rien).







Ben ouais… et ca reste des trolls…

Ou juste des gens qui ne savent pas de quoi ils parlent et se font des films sur la realité du Libre.







Jed08 a écrit :



Oui, la plus grande arme des soft open source c’est la réactivité de la communauté, mais sa plus grande faiblesse, c’est que s’il y a pas de communauté tu as pas grand chose comme soutient.







Quel rapport ?

Un dev unique peut faire des choses incroyables… Nagios a longtemps tenu grace a a une equipe extremement reduite de developpeurs (1 seul pendantr plusieurs annees).

Slackware a ete faite pendant des annees et des annees par 1 seul type.

Etc etc etc

Bref, c’est pas le nombre qui compte, c’est la qualité.







Jed08 a écrit :



Euuu non, un code sécurisé tient du nombre de failles présentes dans le code :/

Avoir un code sécurisé c’est pas dire : “Alors on a codé ça un peu comme on voulait, mais ne vous inquiétez pas à chaque vulnérabilités publiée on vous assure une réactivité du tonnerre”







Et pourtant, quand on y reflechit 5 min, c’est pas si important en fait… J’explique pourquoi en dessous









Jed08 a écrit :



Tout à fait ! Mais pas que ça !

Tu as beau avoir un serveur Linux, si tu le configures comme un cochon ce n’est pas parce que c’est Linux qu’il sera plus sûr qu’un serveur Windows bien durçit (contre-CMB)

Le libre ne se suffit pas à lui même.







J’ai jamais dit ca…

Pour reprendre ton analogie et la mettre dans le meme contexte, il faudrait dire que d’un coté tu as un windows et de l’autre un linux. Les 2 sont configurés moyennement.

Mais dans le cas linux, il faut 1h pour changer une conf non securisée en conf securisée et dans le cas windows, il faut 3j.

Lequel va tu preferer ?


Le 05/03/2014 à 11h 21







240-185 a écrit :



Alors tu diras à la FSF d’arrêter ses FUD concernant le code fermé des logiciels proprios. <img data-src=" />







Tout le monde ne voit pas les prises de position de la FSF comme etant legitimes…


Le 05/03/2014 à 11h 07







Queno a écrit :



Ça montre bien a quelle point linux est un OS vulnérable.



Je m’y connais beaucoup en langue anglaise et il aurait fallu écrire “go to” et pas “goto”. Les gens qui ont fais ce programme parlaient manifestement très mal anglais. Peut-être qu’ils on fais anglais LV3 et pris allemand ou espagnol en LV2.



Avec windows (Qui veut dire “fenêtre” en anglais), un programme écrit par des gens qui parlent vraiment la langue de shakespear, on a jamais aucun virus de mauvaise orthographe anglaise.



Les écossais de Macintosh parlaient moyennement bien anglais et on probablement écrit leur code avec leur accent, ce qui explique la faille.







<img data-src=" />


Le 05/03/2014 à 10h 52







Shyfer a écrit :



Oh tiens, le open source c’est mieux car revu en permanence par des centaines de bénévoles…

Mouais.

Là encore, je pense qu’on a une démonstration que open source != plus sécurisé.

Après je ne dis rien du côté de Microsoft, ils ont sûrement pleins de failles, mais de ce type moins car ils ont un process de test assez rôdé, et assez plébiscité par de nombreux experts.







Personne (connaissant vraiment l’opensource) n’a dit qu’il y avait moins de failles. On dit juste qu’a partir du moment ou elles sont decouvertes, elles sont corrigées bien plus vite.



Parce qu’au final, un code securisé tient plus a la vitesse de correction des failles qu’a leur nombre.

Car a partir du moment ou il suffit d’une seule faille pour penetrer un systeme et qu’il est rigoureusement impossible de garantir l’absence totale de faille dans un logiciel alors le nombre de failles n’a pas vraiment d’importance en fait puisqu’il est vulnerable a partir de 1 et qu’on ne peut pas atteindre 0.

Donc c’est bien la vitesse de correction et de deploiement de la correction qui importe vraiment…


Le 05/03/2014 à 10h 45







Vanilys a écrit :



Depuis 2005, 9 années ?

Hé ben… moi qui pensais que mettre du code open source garantissait que les failles soient rapidement trouvées et corrigées … <img data-src=" />







Rapidement ne veut pas dire grand chose…

Peut etre que pour ce cas, rapidement, ca veut dire 9 ans. Peut etre que d’autres editeurs proprios trainent des failles du meme type depuis 12, 13 ou 14 ans sans s’en rendre compte, qui sait ?


Le 03/03/2014 à 10h 38







Adakite a écrit :



L’autre solution est de resté en 10.6 et de sortir la machine du réseau pour continuer à bosser en mode “safe”.







Mouais… en meme temps, on a pas vu des vagues de hack a l’epoque ou il etait supporté, y’a pas beaucoup de raisons que ca arrive plus aujourd’hui qu’avant…


Le 24/02/2014 à 20h 01







calahan59 a écrit :



En même temps on arrive à une sorte de plafond j’ai l’impression. Et pas qu’au niveau technique. Une fois qu’on a un objet dans la poche qui fait gps, apn, te permets d’aller sur le net, téléphone etc etc Qu’est ce qu’ils pourraient améliorer ?







“Tout le monde savait que c’était impossible. Il est venu un imbécile qui ne le savait pas et qui l’a fait”



Mais bon, effectivement, cette annee, j’ai pas entendu parler de truc sensass’ sortir des labos donc c’est pas etonnant que cette annee soit un peu chiante… et il est a parier que l’annee prochaine sera du meme acabit…


Le 12/02/2014 à 16h 35







sniperdc a écrit :



Ou fainéant <img data-src=" />

Certaines fois utiliser le FTP peut être si rébarbatif pour certains dev’ <img data-src=" />







Autant utiliser la synchro de repertoire et exposer juste le 5001 en https… C’est fastoche et ca marche du tonnerre…







kantfredo a écrit :



C’est quoi le problème avec le DMZ ? c’est ce que j’ai fait vers mon NAS, tellement de port a ouvrir sinon qu’il y en a pour 2 heurs, (quand on arrive a trouver les bon port a rediriger…).







<img data-src=" />


Le 12/02/2014 à 14h 25







Bill2 a écrit :



Euh, par défaut le SMB n’est pas ouvert si l’IP “externe” de la box, si ?







Non, il faut avoir configuré des redirections de ports specifiques pour que ca arrive…



Il faut vraiment etre fou pour exposer un partage SMB/CIFS sur le net <img data-src=" />


Le 12/02/2014 à 14h 23

Pas etonnant, si le NAS est rootkité, c’est fini… il faut reinstaller completement.



La correctif a probablement bien colmaté la faille mais le rootkit en a ouvert beaucoup d’autres.

Le 10/02/2014 à 14h 09







spidy a écrit :



ah bah tiens j’ai eu ma réponse avant de poser la question <img data-src=" />



je chipoterai en disant que certains Syno sont en x86 (Atom) mais pas le mien.







Ouais ce ne sont pas des PC pour autant sur lesquels tu peux installer l’OS qui te chante…



Quoiqu’il en soit, FreeNAS est concu et fait pour transformer un PC (de recup ou non) en NAS. Pas pour remplacer le firmware d’un NAS existant.


Le 10/02/2014 à 13h 31







bingo.crepuscule a écrit :



Ça m’aurait bien intéressé… Mais y’aurait pas la même chose basé sur une distribution Linux ?







Tu t’en fous un peu, FreeNAS ne s’administre partiquement qu’a partir de la console web…







spidy a écrit :



question con : FreeNAS peut s’installer sur un NAS (Syno par exmple) ?







Non

FreeNAS n’est compatible qu’avec des proc x86.


Le 04/02/2014 à 08h 43

Faut pas oublier aussi que les artistes existaient bien avant les majors…

Le 31/01/2014 à 14h 04

‘Tain, moi qui avait parié depuis longtemps sur Elop !<img data-src=" />

Le 31/01/2014 à 14h 04







spidy a écrit :



il n’a plus le contrôle de sa société ?







Ben il n’est pas tout seul depuis longtemps… Il possede beaucoup de part mais c’est loin d’etre la majorité.


Le 28/01/2014 à 22h 04







John Shaft a écrit :



C’est déjà le cas. La Première Guerre Mondiale a éclaté à cause de jeux d’alliances et de cascades de conséquences en découlant







Ouais mais c’etait y’a 1 siecle, ca…

Aujourd’hui, on est beaucoup plus pragmatique et on se lance pas pour rien. Y’a qu’a voir le tortillage de cul pour intervenir en Irak ou en Syrie. On a beau avoir des alliés, le jeu des alliances est un peu rouillé (et c’est parfois pas si mal)


Le 28/01/2014 à 15h 02







arno53 a écrit :



J’adore la cause de la bataille et l’engrenage des alliances, on dirait une série TV type Stargate ou Battlestar <img data-src=" />







Faudrait pas que les mecs qui jouent la dedans se retrouvent a des postes importants dans le monde politiques ou dans l’armée car ils déclencheraient des guerres mondiales pour n’importe quoi…

C’est dingue que les differents alliés n’arrivent pas a evaluer ce qu’ils risquent de perdre en se lancant dans un affrontement pareil. Les alliances sont presque trop loyales en fait…


Le 27/01/2014 à 10h 52







carbier a écrit :



<img data-src=" /> Samsung qui commence à faire du “Apple”… quoique je ne sais pas si Apple va jusqu’à bloquer les accessoires tiers (vraie question)







Non, Apple n’a jamais bloqué des accessoires tiers de cette facon. Tout du moins, pas de cette facon aussi generalisée et sans compromis.


Le 24/01/2014 à 11h 15







Vincent_H a écrit :



Ce n’est pas de mon avis dont il est question, je n’ai simplement pas le souvenir d’avoir entendu Jobs dire qu’il souhaitait un même OS pour l’ensemble des produits.







Je crois que c’est l’avis de tous ceux qui ont un minimum de memoire.


Le 24/01/2014 à 10h 42







carbier a écrit :



Question naive… voire très naïve



Apple dispose-t’il d’une gamme de PC Hybrides ?

La réponse à cette question explique peut-être cette prise de position non ?







Tu prends le probleme a l’envers : c’est parce qu’Apple maintient cette position qu’il ne fait pas de PC hybride.







carbier a écrit :



Asus a été précurseurs des netbooks… personne n’y croyait à l’époque (pas assez puissant mon fils…) avec le succès que l’on connait.







Pour moi, les netbooks ne sont pas un succes… Je dirais meme qu’ils ont juste montré aux constructeurs une autre facon de consommer de l’informatique et que la course a la puissance n’interessait pas tant que ca les clients finaux et qu’ils souhaitaient des produits moins chers.

Mais dès qu’une alternative interessante a montré le bout de son nez a un tarif acceptable (qq centaines d’€), les netbooks ont ete immediatement abandonnés.







carbier a écrit :



Asus a ensuite lancé la tablette hybride sous Android… avec comme soucis principal… le fait que ce n’était pas un PC complet…

Depuis de nombreux constructeurs tentent le pari du PC hybride.







Ouais mais aucun n’a reussi a en faire un succes commercial parce que ces machines ont le cul entre 2 chaises : pas assez bonnes pour etre de vrais PC portable et pas assez bonne pour etre de vraies tablettes.







carbier a écrit :



En fait c’est plutot à cela qu’Apple ne croit pas. L’avenir nous dira s’ils ont raison ou tort.







Ben, faut pas oublier que les 1er hybrides ont 15 ans maintenant (avec la gamme origami) et les 1ers hybrides “modernes” ont deja pas loin de 2 ans maintenant… Y’a largement le temps en 2 ans de voire si un produit marche ou pas. Et a ma connaissance, on a pas encore vu de raz de marée de ce type de produit… A part dans les pubs… Ah ca, dans les pubs, c’est un raz de marée… mais IRL, c’est une autre affaire…


Le 24/01/2014 à 10h 32







Lebaronrouge77 a écrit :



Comme d’hab… Ceux qui disent que W8.1 n’est pas utilisable sur PC, êtes vous au courant qu’on peut booter directement sur le bureau ?!



Et Modern UI est tout a fait utilisable avec un clavier/souris malgré que ce soit pensé pour les tablettes.







Utilisable, oui et encore heureux… mais pas “ergonomique” pour autant…



WinMo aussi etait utilisable mais c’etait tout de meme une grosse merde ergonomique…


Le 24/01/2014 à 10h 30







5h31k a écrit :



[*]Pas de menu démarrer ! -&gt; Comme sur W7, tu tapes la touche “Windows” et tu tape après le nom de ton appli et il te la trouve tout seul (magie inside !).







Encore faut il connaitre le nom des applis… <img data-src=" />


Le 24/01/2014 à 10h 28







Grumlyz a écrit :



Ils tirent simplement une leçon de l’échec de Windows 8.







Apple a toujours trouvé que Win8 etait une erreur… bien avant meme que l’echec soit confirmé.


Le 24/01/2014 à 10h 28







Citan666 a écrit :



Je doute franchement que des mecs aussi au point sur l’ergonomie aient jamais pensé qu’une interface identique pour des périphériques différents était une bonne idée.







Tout a fait…



Deja, les peripheriques d’entree sont radicalement differents. Rien qu’a cause de ca, MS devrait laisser tomber son idee debile.

Mais comme je l’ai deja dit : pour moi, MS a d’autres interets en tete pour ce projet que les interets de ses clients.


Le 24/01/2014 à 10h 22







ledufakademy a écrit :



Connait tu les deux os, je parle la base pas les framework video et audio etc … ?

On dirait pas, car le socle est le meme !!!







C’est ce que tout le monde dit : le socle peut etre le meme, ca reste de la technique mais ce dont on parle quand on evoque la “convergence”, c’est l’ergonomie. Autrement dit, la surface.

Or, aujourd’hui, Apple n’a AUCUNE volonté de faire converger l’ergonomie car ils estiment que c’est une grosse erreur. Et ils ont raison.

Mais on le sait depuis le debut que iOS est un derivé de MacOSX sur les fondements techniques.


Le 24/01/2014 à 10h 17







illidanPowa a écrit :



Apple suis sa route,

MS suis ses clients…..







Si Apple ne suivait pas la route des clients, ca ferait longtemps qu’on entendrait plus parler de lui…

Apple ne suit pas ses clients, il defriche en amont. c’est pour ca que parfois il se trompe et c’est pour ca qu’il arrive regulierement a sortir des nouveautés qui etonnent comme l’iPad par exemple.

MS, lui, suit effectivement… avec 2 ou 3 ans de retard… Mais le probleme c’est qu’entre le moment ou les clients ont un besoin et le moment ou MS sort qqch pour y repondre, il arrive que les clients aient changé de besoin comme pour Vista par exemple…


Le 24/01/2014 à 10h 10







pat98eraser a écrit :



Et pendant ce débat, toujours pas d’outils pour intégrer les macs dans le SI de l’entreprise (déploiement de GPO, équivalent WSUS, partage de fichiers, ….)

<img data-src=" />







Y’a pas vraiment d’equivalent aux GPO mais tout le reste existe sous une foirme ou une autre (authentification centralisee, gestion centralisee des impressions, partages de fichiers, etc)

Apres, faut pas oublier que les GPO sont une grosse merde instable pour tenter d’administrer tant bien que mal une grosse merde instable : la base de registre.

A partir du moment ou tu n’as pas de base de registre, la facon de gerer un parc est radicalement differente.



Et puis bon, faut pas se voiler la face non plus : Apple a déserté l’entreprise. Il garde encore un pied dans certaines PME donc c’est pour ca que ces outils de gestion de parc (MacOSX Server) ne sont pas aussi poussés que ceux qu’on peut trouver dans l’ecosysteme windows.


Le 24/01/2014 à 10h 04







yeagermach1 a écrit :



Les dernières évolutions des librairies de dev allaient clairement dans le sens de l’unification de iOS et de MacOS. Le launchpad par exemple est une facon d’aller vers une unique ergonomie.







Ouais mais les API sont des elements techniques de base et l’extreme majorité apportent des services techniques pour les applis (cloud, gps, etc) et pas de l’ergonomie specifique.

Ce sont typiquement le genre de choses qui peuvent etre adaptées sur les 2 OS a la fois… surtout si on veut que le mobile devienne une extension de son PC, c’est parfaitement normal.


Le 24/01/2014 à 09h 54







cayan a écrit :



Quand tu es incapable de faire quelquechose, une stratégie possible est de soutenir que c’est inutile.



<img data-src=" />







Je te rappelle qu’Apple a changer 3x de processeurs, a abandonner son OS legacy pour partir sur un full-Unix.

Si ils voulaient faire des changement d’ergo de ce genre, ca ne serait pas du tout un probleme… Ca serait meme du pipi de chaton au vu de leurs choix radicaux du passé.



Je pense qu’il n’y a pas beaucoup de boites dans le high-tech qui ont des choses a apprendre a Apple en terme d’audace et en terme de gestion du changement.

En tout cas, MS n’est pas un candidat est de loin car dans le genre gros mammouth conservateur, c’est le champion.