“bref”, il faut quand même reconnaître à Microsoft que le ratio $+TVA -> € est bon (avec un léger avantage pour la France)
et ça c’est cool " />
C’est étonnant d’ailleurs…
Et coté Taxe Copie Privée, c’est considéré comme une tablette ou un portable ?
Le
05/01/2016 à
13h
11
atomusk a écrit :
Sérieusement le prix est le prix. Si tu trouves ça trop cher c’est que tu as pas regardé le produit. Si tu es capable de trouver un produit équivalent à un prix inferieur à la limite, mais 95% des commentaires c’est :
j’ai moins cher, mais j’ai pas de tactile
j’ai moins cher, mais c’est pas un 2 en 1
Au final, c’est un produit unique, il est à la pointe … et il coûte cher.
Le plus énervant avec ce genre de commentaire, c’est surtout que ça fait depuis de l’informatique existe qu’on sait que les tout derniers modèles, les toutes dernières technologies coutent très cher et que ça baisse très vite en se démocratisant qq mois ou qq années plus tard.
Un autre truc énervant est que ceux qui font ce genre de commentaires n’arrivent pas a se représenter la complexité du travail d’intégration. Ils font des comparaisons foireuses entre des All-in-one et des desktop tour ou pire, des ultrabook avec des desktop tour genre “ah oui mais mon SSD noname m’a couté 30cts/Go pour coller ça dans mon PC gamer de 1m de haut bla bla bla”.
Les mecs arrivent pas non plus a se rendre compte que la différence entre un portable bas de gamme de 4cm d’épaisseur avec un ultrabook à 2000€ (et a fortiori un hybride comme la SB) est absolument gigantesque.
Et enfin, les mecs n’arrivent pas non plus a se rendre compte que c’est pas toujours la puissance brute ou la quantité de ram ou de SSD qui est le plus important, ca peut aussi etre souvent l’autonomie, la compacité, la solidité, etc
Et pis merde, si y’a des gens qui peuvent et veulent foutre 2500€ dans un portable qui leur plait, ou est le probleme ? Est ce qu’on doit tous se taper des bousins en plastique à 500€ pour pas choquer les coeurs sensibles qui ont d’autres priorités financieres ?
Le
05/01/2016 à
11h
22
le duc rouge a écrit :
je ne comprends pas trop la différence avec la surface pro ….
La surface pro est une tablette qui veut se la jouer portable alors que la surface book est un portable qui veut se la jouer tablette…
Dans les cas, ca reste des produits un peu bancals avec le cul entre 2 chaises, je trouve…
la norme est pas rétro compatible comme tout les USB ? Inutile de mettre de la Gen2, certe, mais tu te ferme pas une partie du marché pour autant non ?
Je sais pas exactement… Les derniere normes USB sont vraiment bordeliques…
Normalement, ca devrait passer mais bon, dans le doute…
Y’a peut etre aussi une difference de cout sur le controleur probablement.
Le
05/01/2016 à
10h
54
jb18v a écrit :
Ils ont pris du USB 3.1 Gen 1 du coup ? (limité à 5GB/s).
Si le SSD lui meme ne peut pas aller au dela de 5Gb/s, autant supporter le Gen 1… ca ne pose pas de probleme pour les controleurs plus recents et on se ferme pas a une partie du marché.
Tu as une vision très idéalisée. Le libre c’est un bon point mais c’est loin d’être un mot magique qui garantit le bonheur.
Non mais ç’est un excellent point de départ. Et même si y’a pas de garantie absolue, y’en a largement plus qu’avec du proprio pour une situation comme celle là.
Uther a écrit :
Java par exemple en est un très bon de logiciel libre, mais qui est tellement contraint par Oracle que même Google peine à en faire ce qu’il veut.
Google peut forker si ca ne lui va pas… si ils ne le font pas, c’est que ca leur convient quand meme…
On a beaucoup hurlé à la mort de la récupération de Mysql par Oracle aussi. Et il se passe quoi au final ? MySQL est toujours là, sa licence n’a pas bougé, il évolue toujours très bien. Certains ont forké pour faire MariaDB qui, lui aussi, vit très bien sa vie, propose une solution compatible et de bonne facture.
Au final, on (les utilisateurs finaux) s’en sort très bien avec 2 solutions concurrentes de bonne qualité, bien maintenues et inter-opérables. Vive le Libre.
Le
04/01/2016 à
14h
46
Uther a écrit :
Le problème là c’est que c’est une société qui est capable d’imposer ses décisions à tout le monde. Peu importe que le logiciel soit libre, si tu ne le contrôle pas et que tu ne peux le modifier sans créer d’incompatibilité, tu es presque aussi bloqué qu’avec un logiciel propriétaire.
Sur le reste, Apple (et Google - et même MS) font du bon boulot et sont sincères dans l’évolution des normes.
Après faut quand meme pas oublier la masse de sites qui utilisent -webkit-*, c’est faramineux. Et beaucoup de sites (vitrines notamment) ne sont que très peu (voire pas du tout) maintenus donc c’est extrêmement difficile n’enlever des choses surtout au niveau CSS qui se voient immédiatement.
Le
04/01/2016 à
14h
36
discom38 a écrit :
Parce que oui, utiliser en production des standards pas fini, c’est faire de la merde, par ce que tu sais pertinemment que ça va finir par poser des problèmes.
Les standards, à ce moment là, étaient presque fini, c’est juste qu’ils n’étaient pas validés. Et c’est cette procédure de validation qui était très longue au W3C (bien trop longue pour le web en fait).
Franchement, coté devs, même si c’etait pas top d’utiliser ces trucs, y’avait très peu de risque que ca bouge avant la validation finale (qui devait prendre encore plusieurs années).
Après des années et des années de technos dégueulasses coté front car MS avait littéralement tué toute initiative a ce niveau, je comprends les devs qui y sont allés à fond car y’avait enfin du nouveau et du bon !
En plus, lorsque Mozilla, Google et qq autres ont relancé la machine, il a fallut nettoyer la poussière un peu partout qu’avait laissé MS quand il a désertifié le W3C. Ca n’a pas été simple après presque 10 ans de blocage quasi complet : retrouver des acteurs d’envergure prêts à (s’)investir, trouver les bons profils, s’assurer que tout le monde marchera dans le même sens (et on a vu avec les codecs video que c’est pas toujours gagné)…
Bref, ça a ajouté du retard et donc de la frustration chez les devs. Donc quand les navigateurs ont recommencé a proposer des trucs funs même si c’etait pas finalisé a 100%, ça immédiatement été adopté avec tous les petits problèmes de nomenclature tels qu’on les connait. Et l’adoption à été tellement massive et rapide qu’il a été impossible de freiner les ardeurs des uns et des autres malgré la communication de Mozilla, Google & co.
Ensuite, l’inertie à fait le reste… et on en est là…
Mais bon, vraiment, c’est un moindre mal par rapport à l’époque IE6. Vraiment.
Faut s’estimer heureux de n’avoir que ce genre de problème à régler avec tout le bordel qu’il y a eu entre 2000 et 2010.
Le
04/01/2016 à
14h
16
Thoscellen a écrit :
Même si webkit est un bon moteur HTML, ça me met pas super a l’aise qu’il n’y en ai plus qu’un …
Déjà, on en est pas encore là… Et ensuite, si jamais ça devait arriver, tant qu’il reste Libre, ce n’est pas vraiment un problème.
Le Libre a largement démontré sa capacité à favoriser la collaboration et les intérêts des utilisateurs finaux même lorsque les intérêts des différents contributeurs/éditeurs sont très divergents.
Même quand y’a des forks, même quand y’a des rachats et même quand il y a parfois des escrocs ou des profiteurs. Le Libre est très résilient globalement face à ces écueils.
Donc c’est pas une inquiétude pour moi. Mais bon, c’est vrai que c’est toujours mieux d’avoir un peu de compétition…
Le
04/01/2016 à
13h
03
flagos_ a écrit :
Bref, la situation actuelle est pour moi due à 2 facteurs:
le process de standardisation du W3C qui est était bien trop long face au developpement du web
" />
Aujourd’hui, HTML5 (et tout ce qui suit) est en rolling-release.
Le
04/01/2016 à
11h
23
discom38 a écrit :
Retour dans les années 2000, et tous les problèmes des sites fait pour un seul navigateur… " />
Non, pas du tout… (cf mon comm précédent)
Le
04/01/2016 à
11h
21
Gromsempai a écrit :
Sont en train de faire la même erreur qu’à l’époque des vieux IE… Ce moteur, webkit, devient de plus en plus problématique et la direction de Apple embête tous les dev front ><
Ouais mais LA différence, et non des moindres, est que Apple, Google, Mozilla & co se concertent AVANT d’intégrer de nouvelles fonctionnalités et font évoluer un document commun au sein du W3C.
Et une 2e différence est que Webkit est peut-être sous la houlette d’Apple, c’est tout de même un moteur Libre. Tu peux étudier ses sources pour vérifier son fonctionnement dans les moindres détails ( ou bugs) et tu peux le forker si ca te chante (ça a chanté Google d’ailleurs).
Bref, même si ça cahote un peu par çi par là, la situation est mille fois plus saine aujourd’hui qu’il y a 10-15 ans…
La seule “erreur” dans tout ça est que Apple, Google, Mozilla & Co n’ont pas assez pris en compte l’impatience des devs d’aller de l’avant coté front et ils ont gardé trop longtemps des propriétés CSS en mode béta (d’ou les -webkit-*) alors qu’il aurait fallut sortir plus vite les principales officiellement même si la procédure W3C était un peu escamotée. De toute façon, peu après, ils ont déglingué la procédure classique pour faire coller l’évolution des normes HTML5 et associées à la vitesse du web (tant mieux).
Ca va se tasser mais on risque de se garder qq restes pas très jolis pendant un certain temps mais, franchement,
Personne n’a parlé de genie ou de revolution dans ce fil a part toi…
Le
31/12/2015 à
20h
25
AlphaBeta a écrit :
La encore, je ne vois pas la révolution technologique….
Le monde n’est pas fait que de révolutions technologiques…
Néanmoins, on peut facilement définir des choses qui ont créé un point d’étape ou un tournant dans l’histoire meme si technologiquement elles n’ont rien inventé. L’iPhone, par exemple, fait partie de cette catégorie…
Mais bon, Debian n’a rien à voir avec un iPhone… Et, surtout, il ne faut pas oublier que Debian a inventé le packaging centralisé. Tu sais, le concept qui est “juste” à la base de tous les stores modernes …
Et sans parler de ca, Debian a donné une vraie crédibilité à Linux dans le monde pro et le monde industriel. C’est grâce à Debian qu’aujourd’hui, on a du Linux un peu partout dans des appliances, l’embarqué et, surtout, sur les serveurs.
Dans le web, Debian doit frôler pas loin des 25-30% de pdm. C’est juste énorme pour une distrib sans support pro officiel et commercial.
Le
31/12/2015 à
14h
14
Dennis Ritchie est mort a qq semaines (jours ?) d’intervalle de S. Jobs et c’est passé completement inapercu alors que si y’a bien UN gars qu’il faudrait retenir entre les 2, c’est bien Ritchie…
Sa mort m’a bien plus attristé que celle de S. Jobs. Largement d’ailleurs.
Et maintenant celle de Murdock, ca me fout un coup supplementaire.
Ritchie et Murdock sont a la base de mon travail et ma passion depuis presque 20 ans. J’espere que Kernighan et Thompson vont encore tenir le coup un peu…
Le
31/12/2015 à
14h
08
Non mais Debian est une reference absolue dans le monde de l’open source et de linux en particulier. Cette distrib a amené Linux dans le monde pro bien avant RedHat…
Je peux t’assurer que dans mon compte bancaire c’est bien réel.
Oui mais ça va pas durer, faut pas rêver…
Le
31/12/2015 à
13h
57
Je pense que t’as pas du connaitre les tarifs d’internet en 56k et de l’ADSL avant que Free n’arrive sur ce marché…
Franchement, meme si on tourne plutot autour des 35-40€ aujourd’hui, c’est incomparablement moins cher par rapport a avant (70-100€ avec quotas). Et surtout ca n’a que très peu évolué en 15 ans.
Le
31/12/2015 à
13h
52
Non, les operateurs doivent tirer 4 fibres par appartement mais cette regle a evolué dans le temps et les 1ers deploiements ont été un peu fait a l’arrache.
Et de toute facon, tu t’en fous, t’en as juste besoin d’une…
Ce qui fait la difference entre les operateurs, c’est l’arrivée de la fibre a l’immeuble. Si ton immeuble est fibré par tous les operateurs, c’est bingo (perso, c’est mon cas). Tu as droit a une fibre dédiée pour toi avec Free, une fibre mutualisee si t’es chez Orange et je-sais-pas-trop-quoi si tu es chez SFR.
Mais si t’es fibré juste par un seul operateur et qu’il sous-loue cette liaison aux autres, tu as plus ou moins de chance suivant qui est là (souvent Orange).
Mais bon, dans les faits, c’est de la drosophilie tout ca…
A l’usage, tu te rends compte de rien. Le débit est excellent quand t’en a besoin quelque soit la manière dont tu es connecté.
Si tu utilises du Wifi en plus de ta fibre, le point de contention est plus probablement à ce niveau suivant la qualité de ta box (die Livebox ! die !) ou de ton AP, du niveau de saturation des frequences dans ton voisinage, de la configuration de ton logement, la qualité et l’age de ton portable, etc
Et si tout ca est absolument parfait, il reste encore la performance du serveur en face… si il n’est pas capable de t’envoyer plusieurs centaines de Mbs rien que pour toi, t’es pas pret d’atteindre la limite de ta liaison meme si elle est mutualisée…
Quand bien même, y’aurait 2 foyers dans un immeuble “mutualisé”, qui arrivent à tirer a fond pendant des heures dessus parce qu’ils ont besoin de DL un enorme fichier de plusieurs 100aines de To en meme temps depuis un serveur capable de délivrer au moins 1 Gbs par client, ca fait tout de même plusieurs centaines de Mbs chacun. Ca reste très convenable pour un cas complètement improbable.
Le
30/12/2015 à
18h
18
joma74fr a écrit :
oui, la fibre d’immeuble (fibre verticale) est mutualisée : si free a installé la fibre dans ton immeuble, Orange ne peut que connecter sa fibre de rue (fibre horizontale) au point de mutualisation installé par free et situé au bas de ton immeuble.
Comme dit précédemment, c'est tellement rare, que tu fais partie des rares bienheureux qui profitent d'une infrastructure Free tout en étant potentiellement abonné à Orange.
Les parties mutualisées sont juste des bouts de plastique, un peu de cable et une armoire. Quelque soit l’opérateur qui a fait ce boulot, on peut vraiment pas dire que c’est “son” infrastructure.
Dans mon immeuble, c’est Orange qui est arrivé en 1er et qui a monté les fibres verticales. Pour autant, je suis abonné Free et ca change rien au service que je reçois.
Le
30/12/2015 à
16h
01
MuadJC a écrit :
Ne touchez pas à BT. Sa qualité est bonne et surtout le prix est bas.
Si Orange le gobe, je sens que l’intérêt que je porte à cet opérateur basculera vers le principal défaut d’Orange: le prix (élevé).
A mon avis, les prix bas de Bouygues sont purement artificiels…
D’ailleurs, si Bouygues cherche à se débarrasser de cette filiale, c’est probablement parce qu’elle ne rapporte plus rien voire qu’elle est en déficit (ou qu’elle va l’être bientôt).
Donc c’est bien de rêver mais on transforme pas un ane en cheval de course par magie…
Le
30/12/2015 à
15h
58
Cat-le-Duck a écrit :
Pas cool le rachat de Bouygues, c’est le seul opérateur qui vaut encore le coup en France…
Il vaut peut être le coup parce que Bouygues cherche justement à vendre donc pour faire une mariée présentable, il fout sa rentabilité à 0 pour gagner artificiellement des clients…
Le
30/12/2015 à
14h
52
Selon un des acteurs du dossier cité par nos confrères, « les politiques se contrefichent de l’accord sur les télécoms. Tout ce qui les intéresse, c’est TF1 ».
Ah oui, forcément, si je ne veux pas de portable, c’est forcément que je suis un rétrograde préhistorique qui n’a rien compris au progrès.
Je vis seul, travaille à domicile et les rares moment où je m’absente, je ne suis pas en situation de passer ou recevoir des appels.
Je n’ai de toute façon personne à appeler ni personne qui pourrait avoir besoin de m’appeler.
Dès lors, un portable ne me servirait qu’en cas de panne de ma ligne fixe, pour réclamer son rétablissement, mais je ne suis pas assez riche pour investir dans un truc qui ne me servira peut-être jamais.
Mais j’ai bien conscience que tout le monde à tous les niveaux cherche à pousser à la consommation, en l’occurrence à l’acquisition d’un portable et de quoi l’utiliser, une manne juteuse pour les opérateurs mobiles comme pour l’état via notamment la TVA.
Aujourd’hui, un portable coute beaucoup moins cher qu’une ligne fixe… surtout pour les petits consommateurs. Rien que les 17 ou 18€ d’abonnement à une ligne FT te permet de te payer un bel abo mobile… alors quand on sait que les 1ers prix sont à 2€/mois, ca laisse de quoi faire des économies.
Mais bon, on peut pas faire boire un cheval qui n’a pas soif…
Le
29/12/2015 à
12h
47
Arcy a écrit :
Ca, c’est très con parce que l’étranger où son portable passe pas sur le réseau est franchement dans la merde.
Et je suis convaincu que c’est le cas de nombreuses personnes qui, en quittant l’aéroport, découvre qu’ils peuvent pas téléphoner (faute de réseau compatible ou de batterie).
Les gens qui voyagent ont largement pris l’habitude d’acheter des cartes telephoniques prépayées pour téléphoner avec un operateur local le temps du sejour…
L’isolation entre les apps empeche d’utiliser 1password avec une solution de synchro sur mobile sans embarquer les API de synchro directement dans l’appli
Le
14/12/2015 à
19h
08
Xaelias a écrit :
Ça c’est sûr que derrière il faut que tu mettes en place ton propre système de partage/propagation…
Sinon en vrai 1Password fait du partage basé sur le wifi si je dis pas de connerie. Ça peut être suffisant pour la plupart des cas.
Avec Cloud Station, ca marche tres bien sur PC et Mac.
Mais pas sur mobile car il faudrait que les mecs implementent la synchro Synology dans l’appli…
Le
14/12/2015 à
18h
42
Xaelias a écrit :
Bah met le fichier sur ton syno :-)
bah non, ca marche pas sur mobile.
Le
14/12/2015 à
18h
09
Xaelias a écrit :
Yup. Ce qui est une des raisons pour laquelle j’ai pris 1Password au lieu de LastPass. Je refuse que l’intégralité de mes mots de passes soient “facilement” accessibles depuis n’importe où. Au moins avec 1Password, si on me vole tous mes mdp, c’est parce qu’on aura piraté mon Dropbox, et qu’on m’aura attaqué moi personnellement. Et pas parce que quelqu’un aura trouvé une faille dans les serveurs de LastPass.
Et puis perso je ne me connecte pour ainsi dire jamais sur autre chose qu’un de mes ordis, ou mon tel. Du coup ça ne me gène pas.
Pareil… quand j’ai eu a choisir, la solution LastPass avait ma preference. Sauf que le stockage chez eux m’a vraiment refroidi.
Par contre, j’aimerais bien pouvoir synchroniser ma base 1Password depuis mon Syno au lieu de Dropbox
Petite question pour ceux qui on investi dans un syno : je pense sauter le pas prochainement et j’ai du mal à me décider entre un 2 et 4 baies. L’objectif étant de s’en sertir essentiellement pour mes films de vacances avec plex et une smart tv. Les 4 baies me semblent plus évolutifs mais franchement très chers. Le chiffrement AES est aussi quelque chose qui me tient à cœur. Qu’est ce qui vous à fait pencher pour l’un ou l’autre ?
La seule difference entre un 4 baies et un 2 baies touche au volume maximum disponible.
Pour un 2 baies, tu auras, au max, 6To en RAID1 (2x6To) alors qu’avec un 4 baies, tu pourras avoir jusqu’à 18To en RAID5 (4x6To). Après, y’a l’encombrement qui joue un peu aussi…
(J’évacue évidemment le RAID0 et les disques >=8To qui ne sont pas encore très courants.)
Mais au final, les fonctionnalités sont les mêmes donc c’est pas la dessus que tu verras une différence.
Le
10/12/2015 à
18h
20
Jarodd a écrit :
Ah bon c’est si simple que ça ? " />
Bon je file sur les caractéristiques complètes, papa Noël ne décolle pas de suite j’update ma liste !!!
Mais ouais !
De toute facon, les 2 baies Syno sont tous les meme a qq bricoles près donc le passage de l’un a l’autre est super simple
Le
10/12/2015 à
16h
09
Jarodd a écrit :
Mon 211 vieillit, je commence à regarder les nouveaux modèles, mais c’est assez cher…
Et le fait de devoir me prendre la tête pour récupérer et réinstaller mes disques durs me déprime à l’avance " />
Ceci dit les nouvelles fonctionnalités font envie. La LED à niveaux de luminosité " />C’est génial quand on dort à côté du NAS, pas besoin de mettre un vieux chiffon dessus pour s’écarter de la piste d’atterrissage !
J’ai changé recemment mon DS210j avec un DS214 en promo et la migration s’est faite en 2 min le temps d’installer les anciens disques dans le nouveau et booter.
Et je me dis que mon DS214 est pas ridicule par rapport a la nouvelle gamme…
Oui JS est un langage bricolé mais pour le reste t’es completement a cote de la plaque, vraiment.
De toute facon il va falloir t’y faire : la croissance de l’ecosysteme JS est juste exponentielle (http://www.modulecounts.com/ ) et draine toutes les innovations actuelles.
Si la quantité etait un gage de qualité, ca se saurait… Moi, quand je vois pleins de modules comme ça, ça me donne surtout l’image d’une communauté extrêmement dynamique mais surtout extrêmement mal organisée et qui aime réinventer la roue sans consolider l’existant.
C’est l’apanage d’un milieu jeune et moyennement compétent (globalement, j’entends).
Le
04/12/2015 à
10h
28
brazomyna a écrit :
Au delà, pour travailler dans l’informatique financière, je peux t’assurer que la qualité, la sécurité, et la fiabilité sont infiniment moins une question de choix de tel ou tel langage que de process de développement logiciel.
Tout à fait.
Mais autant l’ecosysteme (tant au niveau outils, que process, que formation des professionnels aux process et aux outils) sont très forts dans le monde Java par exemple.
Autant sur PHP, c’est encore assez faiblard (mais ca s’améliore).
Mais alors, autour du JS, c’est le néant absolu. C’est la foire a la bricole…
Aujourd’hui, aucun editeur ou entreprise sérieux ne peut raisonnablement basé un développement professionnel sur une stack js.
Le
04/12/2015 à
10h
26
blackdream a écrit :
Bah jusqu’à que quelqu’un développe un outil de gestion de la qualité.
Tu as l’air d’avoir la haine contre le JS, et contre les développeurs front…
Non, c’est pas de la haine contre les devs mais un peu contre js.
JS est un très mauvais langage. Le problème est quand un dev se forme avec ce truc, il ne peut carrément pas devenir un bon dev. Ni au niveau pratique (gestion de la qualité, gestion du cycle de vie du code, etc) ni au niveau théorique (le js est vraiment du bricolage).
Pour moi, les devs front sont les nouveaux flashers… D’ailleurs, c’est pas pour rien si une proportion non négligeable de flashers se sont reconvertis la dedans. Ca doit leur rappeler le bon vieux temps.
P-A a écrit :
[*]NodeJS existe surtout pour répondre a une demande du marché : faciliter l’émergence d’un maximum de dev full stack.
Le problème est que le JS est quand meme pas le meilleur dénominateur commun entre le front et le back… je dirais meme que c’est le pire.
Et puis, pour moi, c’est une Arlésienne de vouloir absolument unifier les choses. Les technos qui font papa-maman soit sont bonnes nulles part soit elles pechent forcement qqpart.
Je pense qu’il n’y a pas de mal a avoir des technos differentes pour des besoins different. L’important est d’avoir des interfaces de qualité.
brazomyna a écrit :
Quand on dit “pour moi c’est ceci cela”, après avoir argumenté et pondéré les raisons qui nous poussent à penser ça, c’est tout sauf un troll " />
Le Troll, pour l’occasion, c’est le comm de KP2 qui suit le tiens (don’t feed " />)
Je valide :)
Le
04/12/2015 à
09h
46
seb2411 a écrit :
ASP.NET ou Php j’aurais tendance à dire que les deux pourraient être condamné en web. Le front devient de plus en plus Javascript only. Et le backend on utilise des technos performantes. Javascript avec nodeJs peut faire son trou la aussi ou alors d’autres langages comme Go, Scala et autre.
Node.js, pour moi, c’est une défécation de développeur front qui avait besoin de bricoler 2 ou 3 trucs en back avec ses maigres compétences en développement de qualité.
Rien que le choix de js est carrément dégueulasse. Y’a pas d’autre mot. L’absence quasi complète d’outils de gestion de la qualité pour ce langage le disqualifie directement pour toute utilisation autre que faire des zigouigouis jolis sur une page web.
Le
04/12/2015 à
09h
03
Keoregh a écrit :
Ou son cousin, Ruby on Rails ;)
Perso je suis passé de PHP à Ruby il y a 4 ans, pour rien au monde je ne ferai machine arrière pour du développement web.
Je vous invite tous à regarder les tutos Rails, franchement ça change la vie de développeur web !
Ruby c’est cool mais tant que les hébergeurs industriels comme OVH ne proposeront pas d’espace à 4 balles par mois sur des mutus pour deployer des applis en Ruby, ca ne décollera pas.
Et c’est pareil pour n’importe quelle autre techno.
Le
04/12/2015 à
08h
48
> De fait, PHP 7.0 arrive tard et devra notamment faire face à un ASP.NET chez Microsoft qui, au contraire, a beaucoup accéléré depuis deux ans.
Bof… Pour moi, ils ne sont carrément pas en compétition car ils ne visent pas du tout le même marché. Ou du moins, les utilisateurs ne les utilisent pas pour les même raisons.
Le Cloud n’est pas là pour la fiabilité (ça reste des datacenters, mais avec plusieurs couches de complexités supplémentaires qui plantent forcément de temps en temps), il est là pour la flexibilité.
Faut arrêter de tout confondre !
De toute facon, tant que les pénalités ne sont qu’une fraction au prorata de l’abonnement mensuel, les GTR ne veulent absolument rien dire. N’importe qui peut promettre des GTR de dingue si ca lui coute que dalle en cas de loupé.
Le
04/12/2015 à
08h
41
ledufakademy a écrit :
exactement.
…. et surtout a quel prix ! (une GTR il faut la payer)
C’est simple :
4Mb SDSL avec GTR, c’est entre 200 et 400€ mensuels HT chez un opérateur pour pro (OBS, Cegetel, Completel, etc)
Ensuite, il faut ajouter environ 50% du prix pour doubler la bande passante.
Mais de la meme façon qu’un SLA de Cloud n’est pas respecté, la GTR ne l’est pas toujours non plus donc il est nécessaire de la doubler. Avec un 2e opérateur de préférence et sur un 2e DSLAM si possible.
Après, on peut doubler avec une liaison ADSL beaucoup moins chère mais on tombera sur un mode dégradé qui ne sera pas forcément pratique le jour J.
Le
04/12/2015 à
01h
01
> mais une panne de plusieurs heures rappelle que les clients sont alors totalement dépendants de la fiabilité de serveurs distants.
Des serveurs locaux sont soumis exactement aux meme problemes… Et il est illusoire de croire que la disponibilité est meilleure en gardant les machines chez soi.
Le vrai probleme avec le cloud est qu’on devient totalement dependant de sa liaison internet en réalité. Et toute la question est là : veut on etre dependant de son operateur ?
Coté pro j’ai bien plus vu du RH qu’autre chose. Mais il est vrai que Ubuntu commence à le remplacer petit a petit. Très peu vue de Debian au final.
RH à l’avantage d’avoir un support commercial plutôt efficace, ça rassure les DSI. Cannonical faisant pareil mais avec des prix moindre il lui bouffe pas mal de part de marché.
Debian est tres present sur le web car c’est le royaume des techs.
Dans les SI, c’est plutot RH qui truste le marché. Tout simplement car ils ont une équipe commerciale. C’est pas plus compliqué.
Le
03/12/2015 à
09h
57
freechelmi a écrit :
Quand tu monte un projet cloud c’est pas ça qui te fait choisir en general.
Bien sur que si… Aujourd’hui, les leaders d’opinion sur ce genre de choix, c’est pas les grands groupes avec des architectes et des chefs de projets qui ont 20 ans de métier.
Ce sont les startups qui ont démarré avec 3 VMs chez Amazon.
Et je le vois presque tous les jours chez les boites qui m’appellent pour de la presta : la plupart sont des devs qui se savent pas pourquoi ils ont choisi telle distrib ou telle autre. La seule chose qui les a fait choisir est la distrib qui apparaissait dans les tutos qu’ils consultaient sur le web. Et a une epoque, y’avait pas mal de tutos debian, meme aux USA donc ca a aidé quand Amazon a collé Ubuntu dans sa quick list.
Ensuite, le cercle vertueux s’est enclenché.
freechelmi a écrit :
Ubuntu a un avantage car beaucoup de logiciel sont certifiés et tu peux acheter du support chez canonical pour tes VMS, c’est plus difficile pour debian je pense.
Dans tous les cas tout le monde y gagne
Si, si. Ubuntu n’a jamais été utilisé sur serveur avant qu’Amazon le foute dans sa liste Quick Start.
Le support de logiciels pour Ubuntu est arrivé après et à participer au cercle vertueux.
Même la version “serveur” d’ubuntu est arrivée après quand ca devenait necessaire… Et on trouvait meme une chiée de tutos (pour monter un lamp par exemple) pour desactiver l’interface graphique et economiser qq ressources.
Le
03/12/2015 à
09h
48
DarkMoS a écrit :
D’après un commercial Microsoft avec qui j’avais discuté dans le cadre d’un projet “cloud”, presque la moitié des VM qui tournent sur Azure sont Linux. Probablement car ils sont encore outsiders vis à vis d’Amazon et donc jouent sur des prix compétitifs.
Ou plutôt parce que les clients utilisent joyeusement du Linux pour pleins de choses maintenant… Voila tout.
C’est fini l’époque ou des PDG eux-mêmes faisaient le choix du full-MS quelque soit les besoins et critères techniques de leur DSI.
Aujourd’hui, les produits MS sont des produits parmi d’autres qu’on selectionne en fonction des services qu’ils rendent et pas en fonction de la marque qu’ils portent.
Le
03/12/2015 à
09h
17
YamaLandia a écrit :
Sauf que les VM Linux ont été annoncées en juin 2012 et que Ballmer a annoncé qu’il partait en aout 2013 (avec un départ effectif en février 2014) :)
Ouais mais un top manager de ce niveau ne décide pas directement du choix des distribs linux à déployer officiellement sur un “petit” service à peine rentable comme Azure.
Et surtout, il devait être sur la sellette depuis un certain temps déjà donc soit il était plus en mode “guerre politique interne” pour sauver ses miches, soit il était en mode “plus rien à foutre, après moi le déluge, je vais me trouver une autre activité comme la pêche ou le rachat d’une équipe de basket”.
En tout cas, une chose est sure, MS change vraiment depuis que Ballmer a été mis dehors. C’est indéniable.
Le
03/12/2015 à
09h
12
freechelmi a écrit :
C’était pas possible avant ? pas étonant que Azure avait peu de Pdm alors… Debian est quand meme un des OS les plus utilisés sur serveur, meme si Ubuntu passe bien devant maintenant.
Ubuntu est devant car c’est la 1ere distrib gratuite dans la liste Quick Start d’Amazon. Pour avoir une Debian, il faut aller la chercher spécifiquement dans le catalogue global. C’est triste.
C’est une première, non ? Il me semble qu’ils ont donné les clés de déchiffrement à pas mal de pays.
C’est la reflexion que je me suis faite en lisant cette affirmation :
“ Comme nous l’avons répété à de nombreuses reprises, nous n’acceptons pas les portes dérobées qui donnent accès aux informations des clients, et nous ne l’avons jamais fait nulle part ailleurs ”
Je ne sais pas si il y a des preuves incontestable mais il me semble aussi que RIM (Blackberry) avait deja donné des accès a certains pays dont au moins l’Arabie Saoudite il y a qq années. Et il est presque certain que le Canada (qui fait partie des 5 eyes n’oublions pas) et les USA sont accès à leur infra d’une facon ou d’une autre depuis un paquet d’années.
La moitié des composants figurant dans le bousin ne servent à rien.
Ben si, ils servent au jeu puisque c’est un portable “gamer”
BinaryOverride a écrit :
Et peut-on encore appeler ce truc un portable au vue de la taille ?
A partir du moment ou tu as un ordinateur qui integre un clavier/trackpad, un ecran, une batterie et une unité centrale dans le meme boitier, c’est un portable. Quelque soit sa taille…
5589 commentaires
Le Surface Book est en précommande en France, à partir de 1 649 euros
05/01/2016
Le 05/01/2016 à 13h 32
Le 05/01/2016 à 13h 11
Le 05/01/2016 à 11h 22
Samsung T3 : des SSD USB 3.1 Type-C compacts de 250 Go à 2 To
05/01/2016
Le 05/01/2016 à 12h 25
Le 05/01/2016 à 10h 54
Firefox : version 1.3 pour iOS et lourde décision sur la compatibilité Webkit
04/01/2016
Le 04/01/2016 à 15h 10
Le 04/01/2016 à 14h 46
Le 04/01/2016 à 14h 36
Le 04/01/2016 à 14h 16
Le 04/01/2016 à 13h 03
Le 04/01/2016 à 11h 23
Le 04/01/2016 à 11h 21
Ian Murdock, le « ian » de Debian, est décédé à l’âge de 42 ans
31/12/2015
Le 01/01/2016 à 14h 28
Personne n’a parlé de genie ou de revolution dans ce fil a part toi…
Le 31/12/2015 à 20h 25
Le 31/12/2015 à 14h 14
Dennis Ritchie est mort a qq semaines (jours ?) d’intervalle de S. Jobs et c’est passé completement inapercu alors que si y’a bien UN gars qu’il faudrait retenir entre les 2, c’est bien Ritchie…
Sa mort m’a bien plus attristé que celle de S. Jobs. Largement d’ailleurs.
Et maintenant celle de Murdock, ca me fout un coup supplementaire.
Ritchie et Murdock sont a la base de mon travail et ma passion depuis presque 20 ans. J’espere que Kernighan et Thompson vont encore tenir le coup un peu…
Le 31/12/2015 à 14h 08
Non mais Debian est une reference absolue dans le monde de l’open source et de linux en particulier. Cette distrib a amené Linux dans le monde pro bien avant RedHat…
[MàJ] Orange et Bouygues confirment la reprise de leurs discussions
05/01/2016
Le 31/12/2015 à 14h 05
Le 31/12/2015 à 13h 57
Je pense que t’as pas du connaitre les tarifs d’internet en 56k et de l’ADSL avant que Free n’arrive sur ce marché…
Franchement, meme si on tourne plutot autour des 35-40€ aujourd’hui, c’est incomparablement moins cher par rapport a avant (70-100€ avec quotas). Et surtout ca n’a que très peu évolué en 15 ans.
Le 31/12/2015 à 13h 52
Non, les operateurs doivent tirer 4 fibres par appartement mais cette regle a evolué dans le temps et les 1ers deploiements ont été un peu fait a l’arrache.
Et de toute facon, tu t’en fous, t’en as juste besoin d’une…
Ce qui fait la difference entre les operateurs, c’est l’arrivée de la fibre a l’immeuble. Si ton immeuble est fibré par tous les operateurs, c’est bingo (perso, c’est mon cas). Tu as droit a une fibre dédiée pour toi avec Free, une fibre mutualisee si t’es chez Orange et je-sais-pas-trop-quoi si tu es chez SFR.
Mais si t’es fibré juste par un seul operateur et qu’il sous-loue cette liaison aux autres, tu as plus ou moins de chance suivant qui est là (souvent Orange).
Mais bon, dans les faits, c’est de la drosophilie tout ca…
A l’usage, tu te rends compte de rien. Le débit est excellent quand t’en a besoin quelque soit la manière dont tu es connecté.
Si tu utilises du Wifi en plus de ta fibre, le point de contention est plus probablement à ce niveau suivant la qualité de ta box (die Livebox ! die !) ou de ton AP, du niveau de saturation des frequences dans ton voisinage, de la configuration de ton logement, la qualité et l’age de ton portable, etc
Et si tout ca est absolument parfait, il reste encore la performance du serveur en face… si il n’est pas capable de t’envoyer plusieurs centaines de Mbs rien que pour toi, t’es pas pret d’atteindre la limite de ta liaison meme si elle est mutualisée…
Quand bien même, y’aurait 2 foyers dans un immeuble “mutualisé”, qui arrivent à tirer a fond pendant des heures dessus parce qu’ils ont besoin de DL un enorme fichier de plusieurs 100aines de To en meme temps depuis un serveur capable de délivrer au moins 1 Gbs par client, ca fait tout de même plusieurs centaines de Mbs chacun. Ca reste très convenable pour un cas complètement improbable.
Le 30/12/2015 à 18h 18
Le 30/12/2015 à 16h 01
Le 30/12/2015 à 15h 58
Le 30/12/2015 à 14h 52
Selon un des acteurs du dossier cité par nos confrères, « les politiques se contrefichent de l’accord sur les télécoms. Tout ce qui les intéresse, c’est TF1 ».
Quelle tristesse…
Le gouvernement peu emballé par la reconversion des cabines téléphoniques en bornes Wi-Fi
29/12/2015
Le 29/12/2015 à 14h 49
Le 29/12/2015 à 12h 47
iOS 9.2 et Twitter (r)ouvrent la voie à 1Password
14/12/2015
Le 14/12/2015 à 19h 09
Le 14/12/2015 à 19h 08
Le 14/12/2015 à 18h 42
Le 14/12/2015 à 18h 09
NAS Synology DS216 : deux baies et chiffrement des données pour 288,95 euros
10/12/2015
Le 10/12/2015 à 21h 35
Le 10/12/2015 à 18h 20
Le 10/12/2015 à 16h 09
Avez-vous craqué pour une nouvelle console de salon ?
09/12/2015
Le 09/12/2015 à 14h 56
Perso, je me suis offert recemment une magnifique GameCube d’occasion avec 4 manettes et Mario Kart et j’en suis très content " />
Le langage PHP enfin disponible en version 7.0
04/12/2015
Le 04/12/2015 à 13h 30
Le 04/12/2015 à 10h 28
Le 04/12/2015 à 10h 26
Le 04/12/2015 à 09h 46
Le 04/12/2015 à 09h 03
Le 04/12/2015 à 08h 48
> De fait, PHP 7.0 arrive tard et devra notamment faire face à un ASP.NET chez Microsoft qui, au contraire, a beaucoup accéléré depuis deux ans.
Bof… Pour moi, ils ne sont carrément pas en compétition car ils ne visent pas du tout le même marché. Ou du moins, les utilisateurs ne les utilisent pas pour les même raisons.
Azure, Office 365 et VS Online : retour à la normale après une panne de plusieurs heures
03/12/2015
Le 04/12/2015 à 08h 43
Le 04/12/2015 à 08h 41
Le 04/12/2015 à 01h 01
> mais une panne de plusieurs heures rappelle que les clients sont alors totalement dépendants de la fiabilité de serveurs distants.
Des serveurs locaux sont soumis exactement aux meme problemes… Et il est illusoire de croire que la disponibilité est meilleure en gardant les machines chez soi.
Le vrai probleme avec le cloud est qu’on devient totalement dependant de sa liaison internet en réalité. Et toute la question est là : veut on etre dependant de son operateur ?
Microsoft Azure peut désormais créer des machines virtuelles Debian
03/12/2015
Le 03/12/2015 à 13h 44
Le 03/12/2015 à 09h 57
Le 03/12/2015 à 09h 48
Le 03/12/2015 à 09h 17
Le 03/12/2015 à 09h 12
Par refus des portes dérobées, BlackBerry quitte le Pakistan
30/11/2015
Le 30/11/2015 à 13h 48
Sony s’intéresse au remote play sur Mac et PC pour la PS4
27/11/2015
Le 27/11/2015 à 09h 25
Ca pue l’annonce à l’arrache quand même… Les mecs travaillent dessus depuis que le pdg en a parlé sur twitter, je pense… mais avant, c’est pas sur…
ASUS ROG GX700VO : un PC portable avec une GTX 980 et du watercooling… dès 4 319 €
24/11/2015
Le 24/11/2015 à 16h 51