Heu.. suis-je donc le seul à tenir à mon smartphone mais ne jamais avoir eu besoin de coque ? " />
Mon Nokia Lumia 920, je l’ai déjà fait tomber plusieurs fois, et jamais cassé. Il a juste un coin un tout petit peu écorné - mais vraiment peu hein, genre un “creux” de 0.1mm.
Non tu n’est pas le seul. Tu n’es juste pas utilisateur d’un téléphone Apple “que c’est le plus beau, le design est génial” ultra fragile qui fait que la quasi totalité des utilisateurs le protègent avec une coque qui recouvre intégralement ce “design super beau super génial et que t’as un orgasme rien qu’à le toucher”.
Bon, c’était peut-être un peu " /> là, j’avoue " />
Le
09/09/2014 à
22h
10
Fuinril a écrit :
C’est vraiment un troll bas de gamme !
L’iPhone possède quelque chose qu’aucun androphone n’a : un port lightning propriétaire et non standard !
T’oublies aussi le truc unique à la base de la majorité des achats de produits Apple : y a une pomme à moitié bouffée au dos (honnêtement, quand tu vois le nombre de gens qui foutent un autocollant Apple sur tous leurs équipements - scooter, voiture, etc. -, ça fait peur, et ce seraient probablement les premiers à se moquer de ceux qui feraient ça avec le logo Microsoft " />)
Le
09/09/2014 à
22h
06
freechelmi a écrit :
Sur les cartes bleues c’est l’inverse , les US ont 10 ans de retard sur nous.
Essaie plutôt 20 (“Enfin, en 1986, l’introduction de la carte à puce, permet à la France de jouer un rôle de pionnier mondial et de renforcer la sécurité des cartes.” - “1993 : toutes les cartes bancaires françaises sont désormais équipées d’une puce pour accroître leur sécurité. Au moment du paiement, la puce permet d’authentifier la carte et d’identifier le porteur. Fin 1993, la puce avait déjà permis de réduire les pertes dues à la fraude de plus de 50 % par rapport à 1990.”) ; 21 ans donc que toutes les cartes bancaires en France sont équipées de puces, et 28 ans que la carte à puce est arrivée par chez nous.
C’est d’ailleurs pas pour rien que les US passent seulement maintenant aux cartes à puce, avec des évolutions pourries du standard : les brevets français sont tombés il y a genre un an ou deux (et ils avaient pris partiellement le contrôle de la boîte à l’origine du truc un peu avant, avec la bénédiction du gouvernement français - sic -, histoire de pouvoir être prêts pour prendre le contrôle de la techno le moment venu).
Sans vouloir te rentrer dans le lard directement (mais quand même un peu " /> ) ce sont juste de gros préjugés d’expériences personnelles (ou de “l’entourage”) qui ne valent pas un clou.
Oui c’est basé sur de l’expérience personnelle, mais quand en une trentaine d’appels étalés sur 3 mois (Orange Fixe), à différentes heures de la journée, tu tombes systématiquement sur un centre d’appel à Casa ou Tunis quand Orange n’est censé n’avoir que 12% de ses effectifs de TC à l’étranger, il y a forcément une redirection volontaire de certains clients vers ces centres d’appels qui ne peuvent rien faire.
Ils ont tellement accès à rien qu’ils n’ont même pas accès aux informations que le serveur vocal t’as demandé (il faut croire que ces informations servent juste à savoir s’il faut te rediriger sur un centre “poubelle”).
philanthropos a écrit :
Je vais te dire comment ça se passe en réalité (et je dis bien en réalité car je Travaille pour le SAV Orange) :
En France ou dans un des CC offshore conçus pour accueillir les appels des clients que l’on ne veut pas traiter ?
Mais globalement ce que tu expliques ressemble plus à la théorie telle que vue par certains en interne, qui est visiblement très loin de la réalité.
philanthropos a écrit :
Il faut d’abord prendre en compte que Orange ce n’est pas Orange " />
Orange c’est Orange Mobile, Orange Fixe, Orange Internet, Orange Buisiness, etc. et toutes ces entreprises sont indépendantes les unes des autres (même si ce sont des filiales).
Nous n’avons donc légalement pas le droit de travailler sur des dossiers qui n’appartiennent pas à notre structure (ou de manière très limitée). Et donc par conséquent il arrive souvent que l’accès à des données clients soient interdites, malheureusement.
Je ne parlais pas d’accéder aux informations client d’une autre branche d’Orange, mais bien aux informations clients de la branche concernée. Ou alors Orange est assez con pour renvoyer sur un CC d’une autre entité un client qui a appelé le numéro pour Orange Fixe et fourni ses informations de contrat Orange Fixe…
Quant au fait que vous n’avez pas légalement le droit d’y accéder, je suppose qu’il y en a un paquet qui s’en contre-foute chez Orange, du moins dans les boutiques, qui se permettent d’accéder aux informations d’Orange Fixe quand tu vas les voir pour Orange Mobile (vécu encore une fois, quand je suis allé en boutique faire changer ma SIM, le gars en boutique a commencé à me parler de l’abonnement ADSL Orange de mes parents - non, ce n’était même pas à mon nom, juste le même nom de famille et même adresse).
philanthropos a écrit :
Ensuite au niveau du traitement d’un appel :
Le fait est que chaque appel, quel qu’il soit (même si c’est pour demander ton propre numéro), doit être historisé dans un “cas” avec des données diverses.
En pratique, tous les Conseillers Clients (CC) recoivent la même formation mais ne travaillent pas forcément aussi bien les uns que les autres (valable dans tout travail d’ailleurs).
Il est donc réccurent de voir des gens ne pas créer de Cas sur un client, et que logiquement lors d’un appel suivant il n’y ait pas d’historisation.
Cependant, nous avons accès à tous les appels fait par le client à nos services (tant que c’est dans notre entreprise j’entend), même s’il n’y a pas de Car créer. Il est donc impossible qu’une personne du même service, même (et surtout) un supérieur ne sache pas que tu as appelé (ou alors il ment, ça arrive, comme partout).
Sur aucun de ces appels, le TC avait la moindre trace d’un appel précédent au service client, et de la même façon, quand enfin on a été transféré sur un CC en France, eux n’ont plus n’avaient pas la moindre trace des appels sur les 3 mois précédents, donc soit la plus que très grande majorité des TCs Orange mentent au client. Ou alors, plus probable, ils n’ont pas accès du tout aux informations client (sachant qu’il faut des déclarations et autorisations particulières pour que des informations clients puissent sortir du territoire français, du moins officiellement).
philanthropos a écrit :
Là encore tu te plante totalement, et tu as “juste” du avoir la malchance de tomber sur des CC qui ne faisaient pas leur travail (malheureusement …).
Une fois, c’est de la malchance. Deux fois en peu de temps, on commence à se dire que c’est autre chose. Une trentaine de fois en 3 mois sur deux CCs différents (pour le même problème), je suis désolé, ce n’est plus de la malchance. À ce niveau là soit c’est une direction sur un CC “poubelle” qui a pour mission de balader les clients, soit le service Orange est à plus de 90% au Maroc et en Tunisie et complètement incompétent.
philanthropos a écrit :
Nous avons ORDRE de régler au mieux de notre possible un problème client, quitte à le renvoyer vers un autre service.
Et nous sommes précisement Statés sur ça, donc aucune raison de faire chier exprès un client pour le fun, je te l’assure.
Ah mais une fois enfin arrivé sur un CC en France, ça s’est réglé relativement vite : ils ont envoyé un technicien qui s’est aperçu que ça venait bien du réseau Orange et est allé changé une pièce au bout de la rue (boîte dans laquelle ce sont encore des connexions en étain, pour donner une idée…), et ça a de suite amélioré énormément les chose, bien que pour seulement quelques jours.
Bizarrement d’ailleurs, quand on a du rappelé après, alors que pendant 3 mois on tombait systématiquement sur un CC à Casa ou Tunis, cette fois on est tombé du premier coup sur un CC en France. Là encore, envoi d’un technicien (bon la première fois il est pas venu, mais bon), qui a là encore changé d’autres pièces sur le réseau et fait changer une pièce sur le NRA (changée en quelques heures à peine).
À côté de ça, les CCs offshore qu’on a eu pendant 3 mois, c’était : j’utilise l’outil en ligne qui me dit que votre connexion n’a aucun problème (tellement aucun problème que le DLM Orange passe son temps à réduire la synchro, et qu’en moyenne la moitié de la journée on n’a pas de connexion du tout, et quand on en a c’set plus de 10% de pertes de paquets), donc je refuse d’ouvrir un incident, de vous passer le support niveau 2, de vous passer un supérieur, ou de vous rediriger sur un CC en France, qu’on ne peut de toute façon pas faire ; et de toute façon vous n’avez pas déjà appelé 10 fois en deux semaines, j’ai aucune trace de vos appels…
philanthropos a écrit :
Tous les CC résidentiels, Pro R, Pro P, Buisiness & co’ ont le POUVOIR de lancer des interventions (même qu’on en lance trop selon la direction ^^‘). Donc ce que tu dis ne tiens pas la route.
Pour l’annecdote, lors de nos formations (en France comme à l’étranger) il arrive que les CC fassent des erreurs et envoient des intervention sur des centres de test, c’est bien qu’ils peuvent " />
Bah faut croire dans ce cas que ça confirme qu’Orange balance volontairement des clients sur des CCs “poubelles” où les TCs sont incompétents (probablement parce que payés au lance pierre même pour le maghreb, et non formés), parce que une trentaine de fois en 3 mois pour le même problème sans aucune once de résolution, c’est soit ça ou tu ne connais pas aussi bien le support client pour lequel tu bosses…
philanthropos a écrit :
Je rajoute que menacer les CC c’est un peu taper sur le mec qui n’a rien fait pour que tu ait un problème et qui, dans l’écrasante majorité des cas, va chercher à t’aider du mieux possible.
Donc pitié, au téléphone, restez calme un maximum -_-’ …
“va cherche à t’aider du mieux possible” ? Non, vraiment, on ne parles pas du même support client. Il faudrait voir à faire du suivi qualité de tous vos CCs au maghreb (en particulier celui à Casa et à Tunis) hein (je peux vous conseiller une super application que ma boîte développe pour la réalisation des évaluations " />, ou aussi une pour récupérer la satisfaction des clients après une interaction avec vos centres d’appels, certains de vos prestataires utilise la première d’ailleurs). Toujours est-il qu’en une trentaine d’appels, on n’a pas réussi à obtenir d’avancer d’un pouce dans la résolution du problème, et que menacer de les inclure dans la plainte pour escroquerie a permis de passer directement sur un service qui avait les moyens de faire quelque chose, ce qui n’était clairement pas le cas des deux précédents.
philanthropos a écrit :
Nous avons en effet le meilleur service client (sans taper sur les autres FAI, vous remarquez, je ne fais que parler de mon travail).
Parce que nos formations sont généralement complètes, nos outils sont performants (même si c’est des machines à gaz) et que nous avons la main complètes sur les lignes.
D’expérience personnelle, c’était vrai il y a 15 ans, ça ne l’est plus depuis. Ou alors c’est juste que depuis dans notre coin on a été balancé vers des CCs de moins en moins compétents jusqu’à tomber systématiquement sur les CCs “poubelles”. Mais déjà il y a 15 ans c’était pas non plus ça d’un point de vue générale, du fait que les CCs n’étaient pas informés des maintenances programmées (pas la faute des CCs évidemment, mais du service client au sens large)…
philanthropos a écrit :
Pour ta remarque sur la “ligne de 30 ans” il nous arrive régulièrement de remplacer des kilomètres de cuivre, selon les cas, so ….
Probablement quand c’est complètement mort et qu’il n’y a rien d’autre à faire alors. Parce que pour le sud de Paris, l’entretien des lignes c’est même plus du strict minimum.
philanthropos a écrit :
Bref, je pense que ton texte ne partait pas d’une mauvais intention, mais il est bourré de préjugés et travaillant dans le domaine, aimant mon travail et adorant aider les autres, je préfère mettre les choses à plat et dans l’ordre :)
Pas de préjugés, mais d’expérience personnelle, ce qui est particulièrement différent. Travaillant dans le domaine, je te suggères de faire remonter qu’il y a visiblement des CCs qui ne font pas leur boulot (tel que tu le décris du moins) correctement (faute de moyen en partie, mais aussi clairement faute de directives qu’on leur donne), et qu’il y a des clients qui se retrouvent systématiquement affectés à ces CCs offshore, alors que logiquement avec moins de 15% d’effectifs hors de France, tomber en offshore devrait arriver occasionnellement, ou alors quand on appelle en dehors des horaires standard).
Le
28/08/2014 à
18h
10
luxian a écrit :
es plateformes décentralisées à l’étranger n’ayant ni compétence technique pour résoudre le problème du client, ni responsabilité afin de trouver une solution commerciale
Et bien souvent, ni une connaissance suffisament fine du français pour comprendre leur interlocuteur.
Impossible de faire un jeu de mot : l’autre prend ce qu’il entend en traduction litérale !
Ils ont aussi aucun accès aux données clients (pas même aux contacts que tu as eu précédemment avec le même centre d’appel), ne remontent aucune information au donneur d’ordre (volontairement comme ça le donneur d’ordre peut dire, quand tu arrives enfin à avoir un service compétent, “on n’a aucune trace de vos appels, donc votre problème ne dure pas depuis 3 mois”, et ont pour mission de ne surtout pas faire remonter à un service qui peut faire quelque chose même quand il est clair que c’est un problème de l’opérateur. Globalement à ce niveau là, le seul moyen de faire c’est de les menacer de les inclure (le conseiller personnellement et le centre d’appel qui l’emploie) dans la plainte pour arnaque que tu t’apprêtes à déposer parce que l’opérateur pour lequel ils travaillent te facture un service qu’il ne te rend pas : bizarrement ça passe tout de suite de “on ne peut vous passez le service technique en France” à “je vous passe le service technique (qui bien sûr est en France)”, qui lui peut faire quelque chose (comme décider d’envoyer un technicien).
Et ça c’est Orange, qui d’après l’étude ARCEP est celui qui a le plus d’indicateurs au-dessus de la moyenne (quoi que ça veuille dire, parce que moi je ne vois pas), et qui en pratique, dans les zones où ils savent que leur réseau est moisi parce que jamais modernisé en 30 ans (ils utilisent encore la techno d’avant le cuivre, si si), ils te renvoient systématiquement sur ces centres d’appels, 100% du temps, quelle que soit l’heure du jour ou de la nuit (alors même qu’officiellement les centres d’appels à l’étranger sont une minorité - 16% fin 2012 pour Orange).
128€ à Bobigny (faut 3 personnes en coloc en plus), qui dit mieux ? " />
Regardes plus en détail l’offre complète :
BOBLIGNY Proche métro PABLO PICASSO chambre dispo dans colocation 4 chambres, salle de bains + salle d’eau dans grand appartement meublé de 100 m² Chauffage collectif. Loyer 510 Euros CC 14.
Le loyer de 510 € CC c’est pour la chambre dans une colloc 4 chambres sur une surface de 100 m², pas pour le 100 m² meublé.
C’est simplement une de ces nombreuses annonces trompeuses carrément mensongères, comme t’en trouves des trouzaines dès que tu cherches une maison sur Paris. Essaie voir, et tu découvriras que la majorité des maisons listées “sur Paris” (parfois un 75000, souvent le code postal de l’agence) sont en fait des maisons au fin fond de la cambrousse (ouais c’est juste à 1h30 de TGV de Paris, donc c’est “à Paris”, non ?), voire dans certains cas à l’étranger…
D’un autre côté, moins de VTC, moins de voiture, moins de pollution. Pour ce qui est des emplois, je reprendrais l’argument imparable de Dimounet, tant pis pour eux, j’ai l’impression qu’il y a un consensus ici pour admettre ce genre de chose.
Moins de VTC, plus de voitures particulières (les transports en communs n’étant souvent pas à la hauteur), plus de voitures, plus de pollution.
Pour réduire la pollution des voitures (qui est loin d’être la première source de pollution menant aux pics de pollution à Paris, l’ensemble du trafic particulier étant à moins de 25%, et sur ces 25% les diésels représentant plus de 75%), la politique de nos dirigeants depuis des années de tout faire pour rendre son usage difficile est ce qu’il y a de plus con, et n’a pour effet que d’isoler encore plus certains citoyens ; la solution est de faire en sorte que les transports en communs soient un meilleur choix pour les usagers. De plus tout le monde considère que les taxis sont justement une bonne chose pour limiter l’usage de voiture personnelle, je vois difficilement comment on pourrait dans le même temps prétendre que les VTCs auraient eux un effet négatif sur le nombre de voitures et donc la pollution des voitures.
Silly_INpact a écrit :
Que l’état supprime la régulation des prix des taxis. Comme ça ils pourront faire ce qu’ils veulent.
Gourmands comme ils sont ces imbéciles vont augmenter leurs tarifs et adieux les taxis et bonjour les VTC!
Pas envisageable tant que tu permets la maraude. Ça ne pourrait être acceptable que si tu ne permets qu’un fonctionnement par réservation, et dans ce cas le prix devrait être communiqué à l’avance. Au final, ça te donne les VTCs.
Les prix régulés, qui ont quand même je le rappelle la prise en charge, qui justement rend plus intéressantes les petites courses pour les taxis, c’est aussi une contrepartie de tous les avantages qu’ils ont, à commencer par l’usage des voies de bus, mais c’est surtout une protection de l’usager, qui autrement serait un parfait pigeon à se voir facturer d’un coût un montant exorbitant une fois arrivé à destination.
Citer un de mes messages (quitte à supprimer le contenu de la citation) aurait eu pour conséquence que j’aurais eu une notification ; quand même plus pratique si tu espères une réponse.
j-c_32 a écrit :
Euh, si tu avais lu mes autres commentaires, tu aurais vu que je suis contre la revente des licences.
Je les ai lus, et, sauf erreur (c’est possible que je mélange), même si tu es contre la revente des licences, tu considères qu’il faudrait dédommager les taxis si on revenait en arrière sur ce point…
j-c_32 a écrit :
Je ne défends pas les taxis.
Quand on lit tes messages, c’est pas vraiment ce qu’il en ressort honnêtement.
j-c_32 a écrit :
Sauf que sous prétexte qu’on n’aime pas les taxis, on simplifie fortement le problème en oubliant les questions de mobilité urbaine (qui justifie la limitation de licence) ou des autres contraintes qu’ont les taxis ( le droit de stationnement va de 0 à 400 € par an:http://www.journaldunet.com/economie/enquete/reglementation-des-taxis/4-zones-et… )
Je ne savais pas pour cette taxe, merci pour le lien. Mais soyons honnêtes, ça reste ridiculement faible, même si on considérait que c’était partout le montant maximum (400 € / an), d’autant ridicule qu’ils peuvent y stationner en dehors de leurs heures de travail, quitte à gêner le travail des taxis en exercice. S’ils n’avaient pas la possibilité d’y stationner quand ils ne sont pas en exercice à attendre un client à la borde, ce serait une autre histoire.
Mais cette charge est également pour un avantage que n’ont pas les VTCs. Si un VTC veut stationner, il doit le faire sur une place de stationnement publique, et payer les frais associés, y compris en dehors de ses horaires de travail, ou risquer une prune s’il stationne au milieu de la chaussée. Et en dehors de ses heures ou quand il fait sa pause déjeuner, c’est pareil. Les 400 €, c’est dans le mois en frais de parcmètre.
Et c’est sans compter que, contrairement aux taxis, les VTCs n’ont pas d’exonération de taxes sur le diésel : là c’est en probablement moins de deux semaines que cet avantage couvre le montant de la taxe ci-dessus si elle est au maximum. Il est vrai par contre, et c’est une aberration, que les taxis n’ont cette exonération que sur le diésel et non sur l’essence, au grand désespoir des taxis qui ont fait le choix d’un véhicule essence, plus écologique et qui ne rejettent pas des tonnes de particules, mais la quasi totalité des taxis roulent au diésel.
j-c_32 a écrit :
Simplement pour des questions de mobilité.
La gestion des places de parking dans certaines villes est un cauchemard. Rajouter un petit tas de nouveaux véhicules va foutre le bordel (sans compter que ce seront les simples usagers qui risquent de payer en devant utiliser les parkings les plus chers).
Quant à continuer de rouler, ça revient à rouler vers le parking de la société et de s’y garer, sauf qu’on dépense plus d’essence et qu’on reste plus longtemps dans la circulation sans raison valable.
Les VTCs (et les taxis, mais les taxis étant limités, et qui plus est pour la majorité stationnés aux aéroports, cela restraint de fait les options pour l’usager s’il n’y a pas de VTCs) sont une alternative à la voiture particulière. Tout faire pour supprimer les VTCs comme on fait aujourd’hui, c’est augmenter le nombre de voitures particulières, qui vont :
polluer énormément pour trouver une place
occuper des places des stationnement pendant beaucoup plus longtemps
Il faut un sacré paquet de VTCs pour arriver à un gêne équivalente à une seule voiture particulière.
Après si les écolos ne s’amusaient pas à volontairement réduire le nombre de places de stationnement en ville et gêner au maximum la circulation des véhicules sans offrir d’alternatives, on s’en porterait mieux (et surtout les commerces de centre ville qui disparaissent encore plus vite qu’avant avec leurs conneries).
Et le fait de continue à rouler ne revient pas à rouler vers le parking de la société : la différence majeure c’est que tu peux, contrairement à ce que demande les abrutis de députés, partir sur une autre course avant d’être arrivé à destination. Globalement une société de VTC qui marche n’aura pas beaucoup d’attente entre deux courses pour ses VTCs, et il est alors intéressant pour tout le monde qu’à la fin de sa course, le VTC reste en mouvement et se dirige vers les zones où il est le plus probable qu’on ait besoin de lui : la société de VTC pourra alors répondre plus vite aux demandes, et les clients auront leur voiture plus vite ; bien sûr, ce n’est valable que s’ils n’ont pas à attendre trop longtemps pour une autre course, mais dans ce cas ils s’arrêteront sur une place autorisée, en payant si c’est du parking payant, comme ils le font aujourd’hui.
j-c_32 a écrit :
ce qui est faux d’après le lien que j’ai donné plus haut. Donc, je suis en droit de penser que tes arguments sont juste motivé par des apriori contre les taxis.
Non, une analyse (qui certes manquait cette donnée concernant la taxe stationnement, mais dont le montant est risiblement bas, même dans les communes les plus chères) des conditions des deux professions, couplée à une expérience des deux : je n’ai encore jamais eu de VTC qui ne vienne pas sans prévenir quand appelé (c’est régulier avec les taxis, y compris avec des réservations faites la veille), ni de VTC bourré, ni de VTC qui ne connaisse pas du tout Paris et ne saches pas non plus se servir de son GPS, ni de VTC qui essaie de me prétendre que sa machine à CB ne marche pas pour que je le paie en liquide et qu’il se le mette directement dans la poche en volant son employeur (de fait, c’est payé avant), ni de VTC qui essaie de m’entuber en faisant un grand détour pour monter le prix de la course (même raison), ni de VTC dont le compteur était traffiqué pour monter plus vite (même raison), ni de VTC qui change le tarif en avance quand il s’agit de sortir de Paris, mais mette très longtemps à le redescendre quand il s’agit d’y revenir (même raison), ni de VTC qui arrive au bout de 15 minutes avec plus de 10 € au compteur de course d’approche quand je l’ai appelé à la station de taxi à 500m (de fait, ils ne peuvent pas être à la station de taxi, et de toute façon c’est payé avant), ni de VTC qui m’impose sa musique pourrie plein pot, ni de VTC dont la voiture sent le patchouli au point que c’est difficile de respirer, ni de VTC qui prend sa course avec sa gonzesse sur le siège passager en train de fumer et de se faire les ongles, etc.
Après j’ai aussi eu pas mal de taxis très bien, très sympas et tout (et je laisse systématiquement un bon pourboire dans ce cas), mais c’est malheureusement une denrée rare.
j-c_32 a écrit :
Tu oublies totalement de tenir compte de la mission de garantir une mobilité correcte de la part de la mairie, et selon le lien que j’ai donné plus haut, tu as de plus grosses lacunes que moi niveau conditions.
Ça se saurait s’ils respectaient aujourd’hui cette mission : la mission qu’ils suivent (du moins à Paris), c’est au contraire rendre la circulation toujours plus difficile (et ils se félicitent d’avoir 20% de voitures en moins dans ma Paris quand c’est au prix d’une augmentation de 50% des embouteillages et de la fermeture d’un nombre important de petits commerces…). Mais encore une fois, question fluidité, obliger les VTCs à retourner à leur port d’attache entre deux courses au lieu de pouvoir stationner sur les places de stationnement comme tout véhicule (en payant comme les autre si c’est payant) ou de pouvoir continuer à rouler 5 minutes, en se rendant vers les zones où ils sont le plus demandés, en attendant la prochaine course, on fait difficilement pire hein… Retourner à leur port d’attache entre deux courses, ça veut dire, quand ça circule en pleine nuit, au moins 15 à 20 minutes à rouler sans pouvoir prendre un client, et rebelote au retour parce qu’étonnamment, ce genre d’emplacement c’est plutôt en banlieue où ils peuvent avoir de l’espace pour moins cher, donc ça veut dire aussi 20 minutes de plus à rouler pour aller chercher le client suivant (et donc en plus 20 minutes de plus à attendre pour le client).
En gros, tout l’opposé de l’objectif de “garantir la fluidité de circulation”, mais comme ça permet de tuer les VTCs et de continuer de protéger les taxis, c’est une bonne idée…
j-c_32 a écrit :
Par contre, je suis suffisamment intelligent pour comprendre que les transports est un élément qui doit être régulé par les autorités (car si on laisse le marché se réguler, ça ne peut pas fonctionné, vu que l’intérêt des taxis/vtc, c’est qu’il y ait beaucoup de circulation et peu de place de parking histoire de décourager les gens à prendre leur propre véhicule).
Décourager les gens de prendre leur véhicule, c’est aussi théoriquement l’objectif de la mairie de Paris et de la plupart des mairies (et souvent exprimé de cette façon là, quand l’objectif devrait être de réduire l’usage de la voiture particulière en proposant des alternatives viables au usagers, et non en faisant en sorte de dégrader l’option voiture sans améliorer les alternatives).
j-c_32 a écrit :
Du coup, lors de l’apparition des VTC, ceux-ci étaient hors de toutes régulations, ce qui était stupide.
Il y avait déjà des régulations avant que nos députés se réveillent il y a quelques mois hein. Avant cette loi à la con, rien n’avait changé depuis un certain temps.
j-c_32 a écrit :
Maintenant, je ne dis pas que la loi ici est parfaite. Mais prétendre qu’il ne fallait rien faire, surtout motivé par le fait qu’on n’aime pas la mafia des taxis, c’est juste de la connerie.
Il vaut mieux ne rien faire que de faire quelque chose qui empire le problème réel. Sauf que pour nos députés, le problème c’est l’existence des VTCs qui font un meilleur boulot (en termes de qualité de service ET de facilité d’utilisation) que les taxis, donc oui ce qu’ils font lutte contre le “problème” perçu, mais au détriment de toute la population.
Mais je serais curieux que tu me cites des problèmes réels concernant les VTCs (parce que je pense qu’après deux fois à l’expliquer, tu ne vas peut-être pas me ressortir ton argument de fluidité du trafic qui ne tient pas la route).
Par contre, niveau taxi, il y en a, à commencer par le fait qu’un taxi n’ait pas une couleur spécifique qui leur serait réservé, ce qui est fait partout ailleurs dans le monde (à part au RU, le noir pouvant être utilisé par d’autres, mais là c’est un modèle particulier). Ça facilite largement les faux taxis. Et ce n’est pas l’agrément qu’ils sont obligés d’avoir visible sur leur voiture qui permette à un usager de pouvoir être un peu plus confiant que c’est un vrai taxi (non seulement que le papier, à peine visible, est vrai, mais également que c’est celui du conducteur).
Il y a le numerus clausus bien sûr, la possibilité de revente des licences, le fait que la majorité des taxis passent leurs journées à l’aéroport au lieu de faire de la maraude dans Paris (qui est la base de leur boulot), et quand ils en partent, y retournent direct à vide à la fin de leur course, le fait que la majorité ne respecte pas leurs obligations, et se permettent de refuser une course sans raison, de prendre quelqu’un à proximité d’une station de taxi alors qu’il y a quelqu’un à la station, juste pour éviter de faire le tour du carrefour (500m minimum de mémoire), ce qui a pour conséquence qu’aux heures où il y a demande de taxis et peut de taxis, t’as au final des taxis arrêtés n’importe où n’importe comment pour prendre des clients qui essaient d’exploiter ce fait pour avoir un taxi plutôt que d’attendre 3h à la station, ce qui là par contre a justement des effets négatifs sur la fluidité du trafic. Et tous ces points sont du ressort de l’état. Et tant qu’à faire, qu’on fasse comme à New York : les taxis (bien identifiés avec des couleurs à part) d’un côté, qui ne peuvent que faire de la maraude, et les VTCs de l’autre pour les réservations.
Il y a ensuite bien sûr ceux qui sont du ressort privé comme la qualité et l’accessibilité du service ; entre prendre 2 minutes sur une app mobile bien foutue et gratuite (je ne sais plus aujourd’hui, mais quand G7 a commencé ça, ils le faisaient payer) pour un VTC, et poireauter 15 minutes au téléphone pour se faire raccrocher au nez pour un taxi - ou se faire dire qu’il sera là 15 minutes après, et apprendre quand tu rappelles au bout de 30 minutes qu’il ne viendra pas parce qu’il a pris une autre course, et que tu peux aller te faire foutre (du vécu, et pas qu’une fois, et pourtant je ne prends pas le taxi tous les jours)… Entre ces deux situations, bah comme beaucoup d’autres, je choisi le service de qualité facile à utiliser et fiable, même si ça peut être plus cher (et c’est souvent un peu plus cher, mais au moins tu le sais avant, t’as pas la surprise à la fin)
Le
22/07/2014 à
21h
56
fullero a écrit :
Non.
Pas de pots de vin.
C est interdit en conduisant " />
Avant de conduire aussi, mais visiblement faudrait le dire à un sacré paquet de taxis, ils ne sont visiblement pas au courant ;)
Le
22/07/2014 à
21h
55
j-c_32 a écrit :
le fait que les taxis ont d’autres frais (les taxes pour compenser leur circulation et leur stationnement, que ne paient pas les VTC).
Non mais sérieusement ? Faut arrêter la mauvaise foi carthaginoise un peu dans la défense de cette mafia que sont les taxis hein… Déjà il va falloir citer tes sources pour ces supposées taxes qu’auraient les taxis et pas les VTC, mais surtout, contrairement aux VTC, les taxis sont à peu de choses près exonérés de taxes sur le diésel, et ont le droit de stationner (pas juste s’arrêter en attendant un client) sur les stations de taxi (ce qui est soit dit en passant une aberration, les stations de taxi étant faites pour attendre les clients, et ça conduit à nombre de stations de taxi où les taxis qui bossent sont obligés de se mettre à côté parce que la taxi est plaine de taxi stationnés) ; et ils peuvent le faire à ma connaissance sans la moindre taxe en contrepartie, et bien évidemment sans payer le moindre centime à l’heure de stationnement.
RuMaRoCO a écrit :
Avant même de parler de l’activité. vous êtes-vous renseigné sur ce qu’il faut faire ne serait-ce que pour avoir la capacité à la conduite d’un véhicule équipé d’un taximètre ?
Je vous invite pour cela à consulter le site de la préfecture de Police de Paris.
Et je t’invites à consulter les obligations pour faire chauffeur de VTC, en termes de formation ce sont à peu de choses près les mêmes. Et les taxi ont un avantage considérable par rapport aux VTCs, à savoir celui d’avoir le droit de faire de la maraude. D’ailleurs sur ce point, les taxis qui font vraiment leur boulot sont ceux qui font beaucoup de maraude, qui est accessoirement ce qu’il y a le plus rentable du fait de la prise en charge forfaitaire qui est de mémoire aux alentours de 5 € aujourd’hui. Quant aux taxis qui vont poireauter les 3⁄4 de la journée à Roissy ou Orly (et pour beaucoup passent ce temps à se biturer la gueule, ça sent régulièrement l’alcool quand tu prends un taxi à l’aéroport), et qui repartent À VIDE une fois leur course terminée (y a qu’à voir le périph le matin : facilement les 3⁄4 des taxis qui y circulent sont VIDES et vont directement à Roissy ou Orly…), honnêtement on devrait leur retirer leur licence : ils ne font pas leur boulot de taxi (sans compter qu’en plus si tu ne vas pas très loin - au moins Paris - ou que tu as le malheur d’aller en banlieue dehors de leur zone de couverture, ils refusent de t’y emmener - sans que tu puisses prendre le suivant tant que quelqu’un n’a pas pris celui qui t’as refusé - voire te demandent de leur payer le retour alors que DE TOUTE FAÇON ils seraient retournés à l’aéroport à vide…).
Il serait temps honnêtement qu’on fasse comme à New York ou dans d’autres villes : premièrement virer le numerus clausus, mais surtout complètement dissocier ces deux activités, en cantonnant les taxis exclusivement à la maraude, et les VTCs aux réservations.
RuMaRoCO a écrit :
Le vrai problème est que l’écosystème actuel le “Taxi est le parent pauvre.
Ce qu’il ne faut pas lire… Tu voudrais pas que l’état leur verse en plus 2000 € / mois pendant que tu y es ?
RuMaRoCO a écrit :
Pour la question du retour à la base, si j’en crois l’article c’est au siège OU BIEN une place de parking loué. rien n’interdit à la société de VTC si elle a une forte activité sur un aéroport d’y loué une place…
Et pourquoi ne devraient-ils pas avoir le droit soit de continuer de rouler, soit de s’arrêter sur un stationnement ouvert à tous (en payant le parcmètre si c’est du stationnement payant ?).
D’une part, c’est ce que font les taxis, si ce n’est que quand ils s’arrêtent, c’est aussi beaucoup au milieu de la rue, ou alors sur les stations de taxi pour lesquelles ils ne paient rien (y compris quand ils y stationnent pendant leur pause ou en dehors de leur service, alors même que cela nuit considérablement au fonctionnement des taxis qui bossent pendant ce temps là.
D’autre part, les personnes qui prennent un VTC, comme ceux qui prennent un taxi, le font au lieu de prendre leur voiture personnelle. S’ils ne prenaient pas un VTC, ce ne serait pas 5 minutes (je doute qu’en moyenne ils attendent plus longtemps) qu’ils occuperaient une place de stationnement public, mais plusieurs heures, et en plus de cela ils rouleraient en supplément plusieurs dizaines de minutes pour arriver à se garer. Entre les deux, il n’y a pas photo : en termes d’occupation de la voie publique ET de pollution, le VTC est bénéfique, et empêcher ça revient à ré-encourager l’utilisation de la voiture personnelle qui a des effets nettement plus négatifs (à la louche je dirais qu’il faut bien une vingtaine de VTCs pour arriver à la même occupation de la voie publique + pollution qu’une SEULE voiture particulière).
RuMaRoCO a écrit :
Et avant toute nouvelle polémique, oui les taxis payent aussi les places dans les stations via une taxe payé trimestriellement.
La licence n’étant qu’une autorisation de travaille.
Source ? Je n’ai encore vu nulle part de mentionné une taxe des taxi leur octroyant le droit de stationner sur les stations de taxi, c’est à ma connaissance un droit qui va avec leur licence.
j-c_32 a écrit :
Euh, c’est expliqué dans le lien donné:
La mairie choisit le nombres de licences, qu’ils distribuent gratuitement.
Ensuite, soit tu attends que la mairie crée de nouvelles licences (de nouveau gratuites), ce qui peut très bien ne jamais arriver.
Soit tu peux acheter une licence devenue “vendable”, c-à-d une licence acquise il y a au moins 15 ans par un chauffeur de taxi qui souhaite arrêter sa carrière.
Donc, oui, les licences deviennent payantes après 15 ans, seules les nouvelles licences sont gratuites, mais ces nouvelles licences sont rares (et il y a une file d’attente).
Ou alors, au lieu de céder aux demandes des taxis (et en particulier des G7 et compagnie, qui à cette époque se sont également vu octroyer quelques milliers de licences), on aurait pu ne pas permettre la revente des licences, et permettre à un nouvel arrivant d’avoir GRATUITEMENT sa licence (forcément, si elles ne peuvent être revendues, en conservant le numerus clausus, il y en a BEAUCOUP plus à distribuer gratuitement chaque année, à mesure que les anciens prennent leur retraite).
Comme dit plusieurs fois, que ce soit pour le numerus clausus ou le prix de la licence de taxi au marché noir avalisé par l’état, les taxis ne peuvent s’en prendre qu’à eux, et il n’y a aucune raison que les clients ou les contribuables paient pour cela : nul ne peut se prévaloir de sa propre turpitude.
TBirdTheYuri a écrit :
On revient au final à la marge zéro, comme lorsque elle n’était pas cessible, mais avec en plus le risque de perdre de l’argent si personne n’en veut au prix à laquelle elle a été achetée.
Ou dès lors qu’il y a augmentation du numerus clausus, ce qui conduit les taxis à se battre contre son augmentation, quand bien même cela nuit au “service public” que les deux ardents trolls défenseurs des “pauvres” taxis citent pour les défendre.
Entre RuMaRoCO et j-c_32, on a quand même deux bons gros trolls défenseurs des “pauvres” taxis, qui soit ont de grosses lacunes vis-à-vis des conditions comparées des taxis et VTC (c’est de toute façon probable vu qu’ils ont tous les deux montrés qu’ils ne savaient pas que la merde dans laquelle sont les taxis - numerus clausus et prix de la licence -, c’est entièrement leur faute), soit sont d’une mauvaise foi carthaginoise. Dans un cas comme dans l’autre, …
Il faut croire qu’ils sont probablement tous les deux taxis (ou bossant pour un G7 ou assimilé), RuMaRoCO s’étant inscrit le 11 juillet dernier pour la précédente actu sur les taxis, et n’étant visiblement là que pour ça.
(Ah il parait que c’est un mot interdit en présence de l’Hadopi " /> ).
Fais gaffe, mentionner ce terme, en particulier dans un contexte d’Hadopi et de piratage, pourrait te valoir bientôt (au train où vont les lois) d’être assimilé à un terroriste et mis en taule pour terrorisme " /> C’est vrai quoi, parler de VPN à la Hadopi, c’est quand même un acte qui a pour but de semer la terreur !
L’anglais est très proche vocabulairement parlant du français :
WikipediaL’anglais n’est pas une langue latine pour autant comme l’est le français. Elle est germanique et encore plus simple à apprendre pour les allemands que pour nous. [/quote]
Elle reste en partie d’origine latine, et de façon non négligeable (largement plus que les origines grecques en français, qui sont pourtant très importantes).
D’ailleurs pour beaucoup de notions, il y a deux termes équivalents en anglais, un d’origine latine, l’autre d’origine germanique ; très souvent dans ce cas là, le terme d’origine latine est devenu le terme courant, et le terme d’origine germanique a obtenu un usage plus littéraire.
Pour en revenir à la news, la grosse inconnue est déjà de savoir ce qu’il en sera de la réalité de leur 600 millions de prévisions. Et quand je parles de réalité, je ne m’arrête pas aux chiffres officiels qui seront publiés lors du bilan, il faut bien considérer la vraie réalité, avant maquillage de comptes éventuels (comme pour l’espagnol qui faisait du WiFi) ou les manipulations qui permettent légalement de truquer des bilans aux US (genre foutre ses dettes dans une filiale qu’on ne contrôle qu’à moins de 95%, elles ne rentrent plus dans le bilan) ; et ces chiffres réels ne seront probablement vus que lors de l’éclatement de la bulle actuelle, avec le peu de contrôles qu’il y a, en particulier aux US.
Le
18/07/2014 à
22h
14
blob741 a écrit :
ou cardiologue
Cardiologue, probablement que si, du moins s’il a l’intention d’être à la pointe : comme dans tous les domaines scientifiques (y compris la médecine), énormément de papiers de recherche ne sont disponibles QUE en anglais, y compris quand ils sont écrits par des français (et quand c’est toi qui en écrit, une version anglaise est obligatoire si tu veux avoir une chance qu’il serve à quelque chose).
Ouvrier à la chaîne ou maçon, effectivement la connaissance de l’anglais n’apportera pas grand chose pour le boulot. Elle restera néanmoins quelque chose de très important pour la vie en général (du fait que l’anglais est aujourd’hui omniprésent, en particulier grâce au fait que c’est quand même une langue simpliste et probablement la plus facile de toutes à apprendre à un niveau suffisant pour la vie de tous les jours, et de très loin).
blob741 a écrit :
Sinon, j’ai fait mon primaire en école publique privée et le cathé, au final ça se résumait à l’histoire de JC et ses potes. […]
Je pense que tu voulais dire école privée ;) Mais à ce niveau là ça varie beaucoup d’une école privée à l’autre, certaines étant très peu prosélyte (voire avec la partie cathé optionnelle), d’autres étant particulièrement extrémiste et culs-bénis (et il y a bien sûr aussi quelques rares écoles privées qui ne sont pas religieuses du tout aussi, mais ça pas très courant non plus).
Winston67 a écrit :
Ce n’est pas rare , c’est une volonté du gouvernement au nom de l’amitié franco allemande et sur le fait que 1⁄4 des européens parlent allemand
Tu ne serais pas plutôt dans l’est de la France des fois ? [Edit] je viens de voir sur la page d’après qu’effectivement tu es à côté du Rhin, et c’est une raison pour la situation - en particulier parce que, “bizarrement”, dans cette région, ils ont quand même beaucoup de profs d’Allemand - [/Edit] Parce que du moins sur Paris, et ce depuis plusieurs dizaines d’années (et ça n’a pas changé récemment à ma connaissance non plus), il y a plutôt au contraire une majorité de classes avec Anglais LV1, et comme l’a précisé gazgaz78, beaucoup de parents font alors le choix de l’Allemand LV1 pour leur gamin parce que les classes Allemand LV1 ont en général un meilleur niveaux, ou plutôt : les classes avec Allemand LV1 dans un établissement donné ont toutes un niveau supérieur à la moyenne des classes de 6e, alors que pour les classes Anglais LV1, tu as les “bonnes” classes et les “mauvaises”, et donc en choisissant Allemand tu es sûr que ton gamin sera dans une “bonne” classe, en le mettant en Anglais LV1, tu tires à pile ou face et il peut se retrouver à être dans une classe “poubelle” même si très bon (i.e. être un des 2-3 bons élèves qui sont mis là pour “tirer la classe vers le haut”)
À part ça, il est mentionné dans la news que la modification concerne les mises à jour automatiques java 7 et 8 en 32 bits et 64 bits, j’en conclus que la mise à jour automatique sur les versions 64 bits est supposée être fonctionnelle maintenant ? Parce que personnellement sur mon windows 7 64bits (je dev pas dessus donc je m’occupe pas non plus trop du runtime java), j’ai encore jamais vu la mise à jour automatique de java 64 fonctionner.
Bon il est possible que le fait que j’utilise au quotidien un compte utilisateur qui n’est pas administrateur (usage qui était supposé être l’usage prévu à partir de Vista et l’UAC, mais qui a été pourri par Microsoft avant même la version finale de Vista) soit lié, vu que j’ai noté qu’un sacré paquet d’applications n’étaient pas foutues d’arriver à demander l’élévation de privilèges pour les mises à jour dans ce cas de figure, mais il me semble bien me souvenir que c’était “normal” qu’il n’y ait pas de mise à jour automatique pour java7 64, et je n’ai pas vu passer depuis d’annonce comme quoi ça aurait changé ;)
Mais c’est peut-être aussi parce que c’est un JDK et non une JRE ?
Le
18/07/2014 à
21h
47
gokudomatic a écrit :
De nos jours, java ne sert plus à rien, dis-tu? Tu prends ton cas pour une généralité. Java ne se résume pas qu’aux applets, qui sont d’ailleurs presque disparus. Et en entreprise, ce n’est pas .net qui domine le marché, mais bien java.
On voit ce genre de commentaires (celui que tu cite) dans chaque news parlant des failles de sécurité du plugin java pour les navigateurs : des personnes qui n’ont au final à peu près aucune vision de ce qu’est java, et qui vont généralement conseiller de “désinstaller java” parce que c’est un “risque de sécurité”, alors que le seul risque de sécurité est dans le plugin java pour le navigateur quand il est activé. Et effectivement avoir le plugin java activé en permanence dans le navigateur est une hérésie, et pour la plupart des utilisateurs, avoir le plugin java pour la navigateur est lui-même superflu (pour d’autres c’est utile de pouvoir l’activer à la demande comme le permet Firefox, comme par exemple pour utiliser la fonctionnalité de capture d’écran de YouTrack - permettant de simplement ajouter une capture d’écran annotée quand tu déclares un bug - qui nécessite le plugin java)
gokudomatic a écrit :
Et pour les perfs, c’est juste un archi vieux troll basé sur l’impression visuel. Comme pour tout, un code mal fait est lent. Et pour java, ça se voit d’autant plus que le thread d’affichage est laissé à la charge du dev. Donc pour peu que le dev ne comprend pas le pipeline graphique, son appli semble se bloquer à la moindre tâche.
C’est aussi simplement le fait qu’il n’a en pratique que peu de connaissances concernant, et n’a pas forcément vu tourner / ne connait pas des applications java autres que des applications faites à la va-vite avec du swing voire awt par quelqu’un ne maîtrisant pas, qui ont toutes ce design si spécifique à java qu’on connait tous (toutes les applis avec le look and feel “java” évident ne sont pas mal optimisées bien sûr). Il suffit de voir des applications comme Eclipse, NetBeans ou IDEA et de les comparer avec un équivalent non codé en Java comme VisualStudio : la dernière fois que j’ai comparé, VisualStudio était largement plus lent et moins réactif (surtout par rapport à IDEA, je trouve Eclipse et NetBeans moins réactifs, même si Eclipse a fait de gros progrès depuis un moment - et que NetBeans j’ai pas touché depuis un bail) !
gokudomatic a écrit :
C’est amusant, car le seul vrai argument que tu aurais dû avancer et que je ne peux réfuter, tu ne le mentionnes pas. Il s’agit du gouffre de mémoire que java a besoin.
Et surtout de la configuration de la mémoire qu’on lui permet, du PermGen qui (comme son nom l’indique) ne fait que grossir à mesure que l’appli tourne, et qui se configure séparément du reste de la mémoire (donc on se retrouve facilement avec du gâchis de mémoire parce qu’on alloue du PermGen pour les cas limites, mais qui se retrouve être de la mémoire consommée pour rien le reste du temps). Heureusement y a déjà un peu de mieux avec le runtime java8 de ce côté avec la disparition du PermGen justement.
Le
18/07/2014 à
21h
35
linconnu a écrit :
Faudrait qu’ils proposent de vraies mises à jour. Java est ce qu’il y a de plus mal foutu niveau mise à jour. Pour les SDK quand on installe une nouvelle version l’ancienne reste, il faut la désinstaller à la main c’est insupportable.
Pour le JDK et les versions majeures (6/7/8), encore heureux. Comme précisé par tifounon, un dev java aura très fréquemment besoin de plusieurs version du JDK, et quelqu’un qui ne fait pas du dev n’a aucune raison d’installer le JDK en premier lieu. Il vaut mieux que les rares devs java qui n’ont besoin que d’une seule version aient à désinstaller les anciennes plutôt que forcer la très grande majorité à réinstaller les anciennes versions à chaque installation de nouvelle version (voire d’ailleurs rendre très difficile l’usage de plusieurs versions, parce que quand tu as un installeur qui supprime les anciennes versions, ça a en général tendance à ne plus accepter plusieurs versions en parallèle).
C’est comme python ou les versions majeures de gcc, etc. Un dev utilisant ces technologies, sauf exception (la majorité des exceptions étant en pratique des dilettantes et non des professionnels), voudra avoir les différentes versions en parallèle.
c’est bien suffisant, et sans la paranoia des certificats
Java6 n’est plus maintenu, et donc les failles non corrigées. C’est quand même largement à éviter, au moins pour le runtime. Ce qui n’empêche pas de parfois toujours compiler avec le jdk6, même si le plus souvent compiler avec un jdk plus récent en spécifiant une cible jdk6 est largement suffisant, avec quelques cas où ce ne sera pas forcément possible :
application legacy qui utilise du code déprécié et supprimé dans les versions plus récentes (y a pas eu beaucoup de suppression, mais pour des trucs dépréciés depuis plusieurs versions majeures de java, donc bon…)
outils utilisés pour le build qui ne permettent pas de configurer la version de java cible, et qui utilisent donc la version du jdk utilisé : dans ce cas de figure, il y a le plugin maven pour compiler les design de rapports jasper (jrxml), et dans ce cas ça peut être parfois un peu chiant et coûteux de faire l’évolution nécessaire, mais ça ne devrait pas se retrouver sur des nouveaux développements
Ca doit être le seul éditeur au monde qui commence par une version max pour un support des trois plateformes. C’est très bête.
SourceTree d’Atlassian a été pareil : version mac d’abord, version windows ensuite, et toujours pas de version linux.
Le truc c’est que (et pour une raison qui m’échappe), il y a énormément de développeurs qui bossent sous Mac, y compris dans la communauté libre (préférer mac à windows, je vois bien, mais quand tu bosses sur du libre et que tu comprends les enjeux du libre, s’enfermer sur mac au lieu de bosser sur linux, ça m’échappe). En conséquence, beaucoup de logiciels pour développeurs ciblent particulièrement mac (et globalement il faut croire qu’ils considèrent que les devs sous linux font de toute façon tout avec vim et emacs)
sans oublier le fait qu’il s’agit là d’économies à long terme, mais vraiment pas à court terme.
Encore une fois, l’expérience de la Gendarmerie Nationale montre que les économies arrivent déjà à court terme (pour rappel, on parle de court terme dans ce contexte lorsque c’est inférieur à 3 ans), et deviennent juste énormes à moyen terme (3-8 ans).
Le
25/04/2014 à
00h
12
Add a écrit :
C’est un fait que la France n’est plus dans des dispositions budgétaires qui lui donnent une grande marge de manœuvre. Aussi, faute de pistes viables autour du Libre, le choix de MS est le moins pire si on veut continuer d’avoir une informatique opérationnelle au moins à court terme.
Parce que le fait que la Gendarmerie Nationale ait complétée sa migration complète sous Linux, et ce avec des économies plus que substantielles à la clef (réduction de 70% des dépenses sur la période 2004-2009 par exemple, soit 50 millions d’économies - avec des économies de 2 millions par an rien que pour le fait d’être passé d’Office à OpenOffice), c’est pas une piste viable peut-être ?
Après c’est sûr que c’est une option qui ne renfloue pas les poches des décideurs, c’est peut-être ça le problème…
Fennec72 a écrit :
Une question importance pour la l’indépendance de la défense en France:
MS ne serait il pas en mesure de fournir à la NSA et tout ses potes du pentagone des backdoors au travers des logiciels fournis au ministère de la défense français
Ils sont en mesure et ils font, tout comme Cisco avec ses routeurs (mais on préfère se mettre derrière les US pour dire “méfiez-vous des routeurs chinois, il y a peut-être des backdoors qui leur permettraient de nous espionner”, alors que ça ne pose pas de problème d’utiliser des routeurs Cisco dont on sait qu’ils ont des backdoors que les US utilisent pour nous espionner, ET que les US n’ont absolument aucun problème à faire de l’espionnage commercial de ses “alliés” pour faire en sorte que ce soit leurs entreprises qui aient les marchés plutôt que celles de leurs alliés - à ce niveau là on prend moins de risques avec les routeurs chinois : au moins il y a une chance qu’on ne se fasse pas enfler ; mais on peut aussi prendre des routeurs européens - non, pas Alcatel, ça n’a plus grand chose d’européen).
Bejarid a écrit :
Un appel d’offre aussi complexe ça coute une fortune (6 chiffres avant la virgule), tu voudrais qu’on en fasse tous les ans ?
En attendant, rien n’interdit aux entreprises de prendre contact avec la DGA, elle a un service dédié à ça. Et si c’est pertinent, elle organisera un appel d’offre avec son ministère de tutelle.
Tu sais que c’est la loi les appels d’offres systématiques pour les marchés publics dépassant un certain montant (de mémoire de l’ordre de 200k€ au plus) ? Avec de mémoire des durées n’excédant pas 5 ans (voire moins). Mais comme toujours, les politiques ont tendance à s’asseoir sur les lois françaises, en particulier quand ça sert leurs intérêts personnels (ceux de la France ça fait longtemps qu’ils n’y pensent même plus).
Les chaînes “classiques” diffuse en VM. Donc tu choisis
C’est encore très, très loin d’être la règle… En moyenne ça doit même pas être 50% des contenus, c’est pour dire. Sans compter que quand ils le font, ils arrivent le plus souvent à avoir des sous-titres FR dignes de fast-subs.
jeje07 a écrit :
la réponse t’a deja été donnée….
la première année, on tourne la première saison, qui est diffusée l’année suivante, année pendant laquelle on tourne la 2ème saison, et ainsi de suite….
Franchement c’est du niveau 5ème comme raisonnement
Et donc tu es obligé d’investir pour au minimum 1 saison et demi pour une série qui potentiellement ne trouvera pas son public ? Le fonctionnement actuel leur permet de pouvoir arrêter la saison en cours de tournage (et donc ne “perdre” que quelques épisodes) s’il se trouve que le public boude la série, limitant ainsi le risque financier, et permettant en conséquence d’avoir plus de marge de manœuvre lors de la création d’une nouvelle série.
Mais si tu lisais tu saurais, puisque la réponse à ce message t’avait déjà été donnée avant que tu l’écrives.
Et n’oublions pas qu’ici même en France, la Gendarmerie Nationale a à peu de choses près terminé sa migration complète sous Linux (GendBuntu, dérivé d’Ubuntu), avec grand succès et d’importantes économies.
On pourra consulter par exemple un (vieil - 2009) article de linuxfr à ce sujet, qui relève entre autres une annonce par la Gendarmerie Nationale d’économies à hauteur de 70% (50 millions) grâce à cette migration (alors pas encore finalisée) sur la période 2004-2009.
Les économies réalisées sont sans équivoque 70% soit 50 millions € depuis 2004. Jusqu’à 2004 la Gendarmerie achetait entre 12 000 et 15 000 licences par an. En 2005 ce chiffre est tombé à 27.
On peut d’ailleurs consulter le support de la présentation du lieutenant-colonel Xavier Guimard à Utrecht aux Pays-Bas, au sein duquel on peut par exemple voir (page 19), à propos de la migration vers OpenOffice :
? DOCUMENTS NORMALISÉS
? APPLICATION MULTI-PLATEFORME
? UNIFORMISATION DE LA VERSION UTILISÉE
? 2 M€/AN D’ÉCONOMIE IMMÉDIATE
? FONCTIONNE TRÈS BIEN SUR DES MACHINES ÂGÉES DE 5 ANS
? LA MÊME OPÉRATION AVEC WORD 2007 AURAIT COÛTÉ PLUS DE 50 M€
Bizarrement ça donne une autre vision des “arguments” avancés par la Défense Nationale pour justifier un choix absurde probablement conséquence de corruption plutôt que de raison.
Le
24/04/2014 à
23h
34
zempa a écrit :
Mais quelles sont les raisons du “gueulage” ?
Outils pas adaptés ? Si oui qu’est ce qui pose pb concrètement ?
Outils boggués ?
Probablement du genre “ouin, les pptx que m’envoient les copaings ils se lisent mal, et pareil les docx que nous envoient des partenaires ça marche pas très bien”. En gros les raisons qui justifient à la base la migration : ne pas dépendre de formats non ouverts (que Microsoft ait réussi à faire standardiser ISO ses formats trucX alors qu’ils ne sont pas ou très mal documentés, et que Microsoft lui-même n’arrive pas à assurer une compatibilité complète d’une version à l’autre - quoi que ça a du s’améliorer, mais avec entre deux versions mineures d’Office au moment de la sortie du format, la 2007 de mémoire, y avait des incompatibilités… -, ça m’a toujours troué).
Et on nous ressort toujours l’argument du “ouais mais les utilisateurs ils sont habitués à Windows et Office, on peut pas les faire passer sur autre chose”, alors que bizarrement il ne pose plus de problème lorsqu’il s’agit de passer d’une version d’Office à une autre qui pourtant nécessite à chaque fois que les utilisateurs réapprenne tout (et le passage d’une version < 2007 à 2007 ou plus est encore plus marqué), ou de passer de XP à Vista/7 (ce qui a bloqué de nombreux utilisateurs “moyens”), ou encore le futur passage à venir à Windows 8.
Et dans le même temps, on a pu voir que les utilisateurs n’ont eu dans leur ensemble aucun problème à s’adapter à des usages complètements différents de l’informatique (bien plus différents que de passer d’un Windows à du Linux) avec l’essor des smartphones et tablettes.
Et le pire c’est qu’à tous les niveaux c’est à peu près impossible à faire comprendre, même à des gens d’ordinaire pas complètement stupides : dans ma boîte (une dizaine), lorsqu’il a été temps de passer de Office 2000⁄2003 à autre chose, on a considéré OpenOffice/LibreOffice (sur conseil de la R&D, qui est de toute façon entièrement sous Linux) ; en fin de compte la partie commerciale a souhaité passer à Office 2010 parce que “Open/Libre Office c’était trop différent fallait tout réapprendre” ; résultat : ils ont passé des mois à retrouver vaguement (et je dis bien vaguement) leurs marques (parce que les menus sont devenus complètement ridicules tellement il n’y a aucune logique dans l’organisation), ils n’ont plus du tout de support technique en interne sur le produit parce qu’il n’y a personne au pôle technique qui puisse les aider (sous Office < 2007 ça allait encore, étant donné qu’on a tous passés de nombreuses années sous Windows avant, et que l’organisation étant encore logique à l’époque), et qu’en plus on a des problèmes de compatibilité pour les documents internes qui doivent transiter entre le pôle commercial et la R&D… (oui parce qu’en plus ils ne sont pas foutus de faire l’effort de produire des .doc au lieu de .docx quand ils n’ont pas besoin des rares évolutions de fonctionnalité du format).
Et pour les communications avec les partenaires, la très grande majorité des documents échangés sont des documents qui n’ont pas vocation à être modifiés, et il serait temps qu’au moins au niveau des administrations on pousse à l’utilisation de formats conçus pour ça… Si le document que tu transmets à un tiers n’a pas vocation à être modifié par ce tiers, c’est pas un .doc(x) ou un .ods qu’il faut lui envoyer, mais un putain de PDF (et même les dernières versions d’Office sont capables d’en produire - ‘fin en multipliant la taille par 3 quand ça devrait la réduire, mais bon -, et pour les plus anciennes il suffit d’utiliser un truc comme PDFCreator.
YesWeekEnd a écrit :
Même dans une fac, qui pourtant a une grosse part de population jeune, le simple fait de changer de version d’office dans les salles de cours amène son lot de capillotrataction…
Pas étonnant, y a plus à réapprendre en passant d’une version d’Office à une autre qu’en passant d’Office à Open/LibreOffice, et c’est de pire en pire à chaque nouvelle version, avec une organisation de moins en moins logique et qui nécessite de plus en plus d’“apprendre par cœur où sont les différentes fonctions, parce que de toute façon tu risques pas de les retrouver si tu les cherches”.
Avec Office, Microsoft arrive à faire reculer à chaque fois la facilité de prise en main et d’utilisation, voire les fonctionnalités.
Typiquement, Outlook 2000 était très très bon comme client messagerie ; Outlook 2010 est juste un foutoir sans nom avec visiblement au milieu la perte des archives multiples et automatisables (du moins, aucun des collègues qui l’utilise n’avait la moindre idée d’une telle fonctionnalité, et aucun n’a été capable de la trouver, et moi non plus quand j’ai cherché). Et il y a bien sûr aussi le fait que (il me semble aussi avec 2007), Microsoft a réussi à rendre le rendu des mails HTML bien moins bon qu’avant, en passant du moteur de rendu d’IE au moteur de rendu… de Word ! (si si).
Add a écrit :
Et je constate que, pour le moment, le Libre (je parle pas d’une entité mais des acteurs affiliés au Libre) ne propose pas de solution globale intégrant gestion de projet, formation, support.
Et pourtant il y a des dizaines de boîtes dont c’est justement le boulot : vendre du Libre packagé avec gestion de projet, support, formation, et pas mal qui sont françaises. Sans compter les boîtes qui font dans le libre mais pas que (oui, des boîtes comme Cap Gemini, ATOS, etc. font ce genre de trucs).
tic tac a écrit :
Mais sans appel d’ offre difficile quand même de le savoir.
Le problème c’est que même avec appel d’offre, pour ce genre de contrats ils décident en général qu’en pré-requis, il doit y avoir une “compatibilité à 100%” avec les formats fermés Microsoft (qu’en pratique même Microsoft lui-même n’assure pas, loin de là, d’une version à l’autre), que forcément il est difficile d’obtenir quand tu dois faire du reverse engineering pour l’obtenir faute de réelles spécifications publiques des formats.
(1) Passer plus de temps à consulter des brevets qu’a travailler. Et bien oui, parce que pour vérifier qu’on a pas enfreint un brevet dans une base qui en compte des millions, ça suppose d’y consacrer 99% du temps de création : Il faudra bien que le consommateur que tu est paye ce prix.
Sans oublier que les dits brevets n’apparaissent pas dans la base tout de suite, et que tu donc tu peux commencer à développer et commercialiser ton produit, et te retrouver 1 an après avec un brevet publié dans cette base qui est valide depuis avant la commercialisation de ton produit (ou même s’il n’est valide que depuis, on pourra t’attaquer et potentiellement gagner (mais même s’ils finissent par perdre, tu auras fait faillite bien avant), et ce malgré la règle du prior art - qui aux US n’invalide pas le brevet mais dans le meilleur des cas protège uniquement celui qui peut prouver que lui il faisait déjà ça avant le brevet).
Orange ne sort peut être pas des trucs d’un autre monde en terme d’innovation mais en attendant j’ai la fibre chez eux et elle crache 500Mbs/200Mbs et le service est de qualité.
C’est cool pour toi, t’as de la chance. Chez moi (en RP) Orange c’est plutôt des débits aussi moisis que Free (voire plus le plus souvent) vers la majorité des sites US, avec juste depuis environ 1 an maintenant une amélioration pour YouTube, uniquement parce qu’Orange a pu user de son implantation internationale et en particulier en Afrique pour obtenir de Google une interconnexion directe pour une partie du trafic, ce qui a amélioré les choses. Un Twitch.tv sur Orange par exemple, y a bien qu’entre 3h et 5h du matin que c’est à peu près regardable…
Et puis Orange, c’est aussi le réseau en rade pendant deux semaine et qu’on te dit que “c’est chez toi”. Avec une hotline, en pleine journée en semaine, qui est au fin fond du Maghreb, parle à peine le français, et n’a même pas accès au CRM d’Orange, et qui ont pour mission de ne jamais te passer le support niveau 2. Orange c’est aussi leur “outil de diagnostique” à distance qui te prétend que “non y a aucun problème sur ta ligne”, quand la version locale de leur outil te dit l’inverse, et que leur autre technologie, le DLM (Dynamic Line Management), passe son temps à réduire le débit de ta ligne parce que justement y a un truc de pourri sur le réseau.
C’est fabuleux d’être chez Orange, effectivement…
Une hotline low cost au Maghreb, ouais ça paraît moins cher, pour un manager aveugle à la vision court-termiste. Ça a aussi le mérite de faire fuir les clients (bien qu’étant chez Orange dans le fixe depuis 20 ans, tu peux me croire qu’après avoir été pris pour un con pendant deux semaines, ils ne sont pas prêts de me revoir). Parce que sur le coût c’est la stratégie la plus débile qu’ils pouvaient faire : ils ont cherché les prix les plus bas, au lieu de chercher le meilleur rapport qualité prix, et ce qu’ils ont obtenu, c’est de payer pour perdre de l’argent. Toutes les hotlines au Maghreb ne sont d’ailleurs pas catastrophiques à ce point, et les meilleurs stratégies les utilisent pour les soirs et week-end (par nécessité car ne pouvant les avoir en France pour des questions de législation), et pour traiter le support de 1er niveau, mais en transmettant réellement au support de second niveau si c’est insuffisant. Et la différence de coût entre une hotline au Maghreb avec des personnes ne parlant pas français, et la même à côté dont les conseillers parlent correctement le français avec un accent faible, elle est à peine visible.
Et tous ces choix de hotline délocalisées à l’étranger, ils viennent d’avant Free. L’arrivée de la concurrence n’y a rien changé. Parce que même quand les opérateurs s’engraissaient sur le dos des clients, il y avait toujours la course à la réduction des coûts en se foutant de la qualité (et même encore plus, parce qu’il n’y avait pas de concurrence à craindre), afin d’en mettre un maximum dans la poche des actionnaires et dans la poche des copains à qui l’on filait des boulots à plusieurs centaines de milliers d’euros par an.
Par contre bien sûr avec l’arrivée de la concurrence, ce n’est pas dans les postes de dépenses réellement superflus que les gros sabrent, et ils le paieront dans quelques années.
Moebius13100 a écrit :
Personnellement c’est ça que je demande à mon FAI, pas qu’il me sorte une Box WTF qui fait le café, mais une connexion qui tient la route et une infrastructure en mouvement (certains en face ne peuvent pas en dire autant " />).
Orange ne peut pas en dire autant, c’est certain. Et en termes de respect du client, ils arrivent depuis quelques années à faire pire que SFR, c’est pour dire !
Moebius13100 a écrit :
(Je peux cependant comprendre que les FAI aient les boules vis à vis de Google et Cie qui utilisent les tuyaux et les 3⁄4 de la bande passante sans jamais lâcher un kopeck)
C’est bien tu montres que tu n’as rien compris à la situation… LE problème vient de Cogent, qui volontairement déséquilibre les données qu’il transporte, en prenant exclusivement des clients qui émettent des US vers l’Europe, et les attire en leur faisant des tarifs bas, pour ensuite faire du chantage aux opérateurs européens (et cette situation n’est pas qu’en France) en les faisant payer très cher le déséquilibre qu’ils ont eux-mêmes organisés.
Google et Cie paient des millions chaque année en bande-passante (prétendre qu’ils n’ont jamais lâché un kopeck démontre au choix une mauvaise foi exceptionnelle, une imbécillité crasse, ou une méconnaissance totale du sujet), juste un peu moins que ce qu’ils paieraient s’ils passaient par un opérateur de transit “honnête” qui n’organise pas volontairement un déséquilibre de débits pour pouvoir sur-facturer les FAIs européens pris en otages.
Après dans l’histoire il y a également les FAIs européens (en particulier français), qui essaient de profiter de cette situation pour détruire la neutralité du net et faire payer une deuxième fois les fournisseurs de contenus, qui paieraient alors pour leur bande-passante montante vers Internet, et pour être accessible chez chacun des FAIs. Et c’est bien parce que les FAIs espèrent gagner gros avec cette stratégie qu’à aujourd’hui ils ne mettent pas plus en lumière la vraie cause du problème : Cogent.
bartouf a écrit :
j’attends toujours tes exemple d’innovation chez Orange. Tu ne m’en a sortie aucune mais vraiment aucune.
Je peux t’en donner une : le service client qui n’a pas accès aux informations du client (y compris combien de fois il a appelé dans les deux dernières semaines) :p
Moebius13100 a écrit :
Là bas la concurrence est bien plus exacerbée et les entreprises n’ont que peu de barrières, elles licencient comme bon leur semble.
Dans le domaine qui nous concerne pour cette actualité, non, la concurrence n’est pas plus exacerbée aux US, loin de là : les US pour internet et la téléphonie mobile, ce sont des monopoles locaux (à la rigueur dans certains cas des duo-poles), et leurs lois anti-trust ne peuvent rien y faire parce que ce sont justement des monopoles locaux, et non à l’échelle du pays. C’est ce qui fait que c’est un des pire pays en termes de tarifs et de qualité de service (sans parler de l’absence totale d’innovation dans le secteur).
yellowstone a écrit :
Je comprends tout à fait ce point de vu…
Je ne paierais pas 1 € de plus pour avoir un débit de 100 méga en download. Pourquoi ? Parce que tout simplement à l’heure actuelle, il n’y a aucune utilisation qui permette de l’exploiter convenablement.
Un débit de 100 méga ne permet pas de surfer plus vite, ne permet pas d’être plus à l’aise pour le streaming (étant donné que la plupart comme Youtube limitent le « préload » à quelques dizaines de secondes ». Et bien souvent, ne permet même pas de télécharger plus vite.
Pareil sur ce point : l’intérêt principal de la fibre, il est dans le débit symétrique, et en particulier la possibilité d’avoir un upload digne de ce nom. D’ailleurs ce devrait être dans l’intérêt des FAIs d’encourager leurs clients à héberger au maximum leur contenu chez eux plutôt que d’aller les mettre sur YouTube ou autre service américain (donc utilisation de Diaspora au lieu de Fesses de bouc par exemple, utilisation d’un Owncloud hébergé chez soi plutôt que d’utiliser Dropbox et consorts, etc.), parce que justement ça réduirait le déséquilibre de bande-passante qui leur posent des problèmes financiers. Ils se réveilleront peut-être quand (enfin si) ils perdent définitivement dans leurs tentatives de faire payer deux fois leurs services (par leurs clients et par les fournisseurs de contenu), au mépris de la neutralité du net.
yellowstone a écrit :
C’est d’ailleurs la même chose pour la 4G. L’immense majorité des français ne sont pas intéressés, indépendamment du prix, car ils le disent, ça ne correspond pas à leurs besoins…
Pour la 4G, c’est aussi et surtout que les opérateurs se trompent d’axe de communication : l’intérêt de la 4G, ce n’est pas le débit maximal possible, qui de toute façon ne sera pas atteint, et le sera de moins en moins à mesure que les clients passeront en 4G (il n’y a qu’à voir les “débits moyens” utilisés dans les publicités anglaises comparant les différentes technologies : on passe d’un rapport de 4x en comparant les débits maximum, à une simple augmentation d’à peine 30%…).
L’intérêt de la 4G par rapport à la 3G, c’est la latence ! C’est le seul véritable intérêt, et le seul intérêt à terme (i.e. lorsque tout le monde l’utilisera et qu’en conséquence les débits réels observés seront très loin des débits maximum).
Ou pour les sites qui n’ont jamais utilisé une version de OpenSSL supérieure à 1.0.1 avec l’extension TLS_HEARTBEAT activée…
On oubli qu’au delà de ceux qui ont corrigé et aurait pu être vulnérable pendant la période ou la faille était présente, il y aussi ceux qui n’ont JAMAIS été vulnérables !
Oui, et c’est le cas (entre autres) de tous les sites qui étaient sous Debian en oldstable (pas encore passés à Debian 7), comme d’autres distribs stables encore supportées en mises à jour de sécurité (la stable était vulnérable par contre).
Quand j’ai vu ça j’ai été finalement assez content qu’on n’ait pas encore fait la migration de nos serveurs en Debian 7 (surtout qu’elle ait pris du retard, parce qu’à la base c’était prévu avant fin mars :d)
Pour avoir fait du java pendant ma formation pro (et très peu en entreprise) je n’aime pas cette plateforme, eclipse est un ide pas génial (je trouve netbeans un peu mieux).
En termes d’IDE, difficile de surpasser Intellij IDEA de JetBrains, même avec simplement la version Community open source (après il y a une version payante, mais c’est pas extravagant non plus pour du dev professionnel, et si t’as pas à travailler avec des jsps pourries - donc si tu fais pas du vieux Struts 1 legacy quoi ;) - la community passe très bien).
youtpout978 a écrit :
Pour le c++ c’est encore très utilisé sur des machines ou la microseconde est importante, ou on est obligé de coder en bas niveau (firmware …), sur des projets scientifiques où les calculs se comptent en année et l’optimisation permet de gagner des mois…
Clairement, et pour ces usages là ça reste le plus souvent le langage le plus adapté. Pour du web faut vraiment être un monomaniaque, et c’est probablement encore plus antithétique que d’enfoncer une vis avec un marteau :) Mais même dans ces cas là, le point le plus important sera l’optimisation de la complexité des algorithmes en premier lieu, et l’optimisation à l’octet / ms prêt ne peut venir qu’après : vouloir optimiser à l’octet / ms ton appli qui utilise un algorithme en O(N^2) c’est un peu con et inefficace quand il existe un algorithme en O(Nlg(N)).
Personnellement il m’a fallu beaucoup de temps en passant à java pour accepter de ne plus gérer moi-même directement la mémoire et pouvoir choisir entre les différentes façon de passer des arguments (pointeur, référence, copie, copie de pointeur, tout ça quoi).
youtpout978 a écrit :
en plus maintenant les entreprises gagnent plus à investir dans du gros matos que dans du dev supplémentaire;
C’est pas vraiment nouveau, et aujourd’hui c’est plus sur la multiplication de petit matos que sur le gros matos (à condition que l’architecture du programme le permette, bien sûr).
youtpout978 a écrit :
sur combien de projet j’ai travaillé avec une architecture pourrit, du code pourrit à tous les niveaux, des rustines un peu partout et devoir rajouter du code encore plus dégueux juste pour entrer dans les délais (ce qui fait que rien ne vas en s’améliorant); le client ce qu’il regarde c’est juste le résultat si ça marche comme il le désire ça lui va.
La problématique à ce niveau là, c’est que bien souvent sur le début d’un projet, on “oublie” (ou plutôt on te dit “y a pas le temps, c’est pas urgent, on fera ça plus tard”) le refactoring progressif pour réduire la dette technique (entropie inhérente au développement), et quand ça saute aux yeux qu’on est dans la merde, c’est trop tard, il faudrait tout réécrire, et là clairement y a pas le temps, donc on est obligé de faire de la rustine et de la bidouille en essayant quand même que ça soit un peu moins pourri après, mais ça finit bien vite quelque part entre un plat de spaghettis et frankenstein.
La solution à ce niveau là c’est de progressivement ré-architecturer pour découpler le code et le découper en petits composants qui pourront être facilement réécrits et/ou optimisés indépendamment du reste, mais c’est un travail de longue haleine (d’autant plus qu’il faut concilier ça avec le besoin de faire du CA pour pouvoir financer ces évolutions qui n’ont de valeur business qu’à moyen long terme).
Le
22/03/2014 à
01h
07
sr17 a écrit :
C/C++, c’est le langage idéal pour un projet de 10 ans, pas le langage de 10 projets par an.
Et c’est ce qui fait que ce n’est pas adapté à du web justement.
sr17 a écrit :
Justement, si tu veux te donner la peine de comprendre de qui je parles, tu comprendra. Et google est ton ami. Oui, je parle bien des plus gros acteurs du monde du web. Ceux dont les infrastructures se comptent en centaines de milliers de serveurs.
Pourquoi ne pas en citer ne serait-ce qu’un si c’est si facile ? Je te rappelle que c’est toi qui t’es pointé en prétendant que le C++ était courant parmi les gros services web, et que je t’ai cité la plupart des plus gros services web qui justement n’utilisent pas du C++ pour ça. Il faudrait en plus que ce soit à moi de chercher des exemples compatibles avec ton affirmation ? “Google est ton ami”, c’est un peu facile hein.
sr17 a écrit :
Il est bien évident que pour une industrie qui fait tourner le même logiciel sur un nombre énorme de serveurs, l’optimisation en C++ vaut largement le coup. Un code plus efficace peut faire économiser des centaines de millions de dollars en matériel.
Et c’est pour ça que Google (je ne vois pas d’autre service web avec plus de serveurs qu’eux) font leurs devs avec du C++ ? Ah merde, non justement. Ou à plus petite échelle (mais toujours énorme) Facebook, Twitter, YouPorn, la galaxie Mega ? Ah bah non eux non plus n’utilisent pas C++…
sr17 a écrit :
Après, il est difficile d’affirmer a partir de quel seuil ça vaut le coup d’optimiser plutôt que d’aligner les serveurs.
L’optimisation ce n’est pas uniquement économiser 1 octet par ci, 1 octet par là, ou 1 ms par ci, 1 ms par là. En particulier dans les développements sur le réseau (principalement internet donc, pas forcément uniquement web d’ailleurs), c’est aussi et surtout une question d’architecture.
Le
22/03/2014 à
00h
29
youtpout978 a écrit :
Mono en est à la dernière version du langage c# (v5), je ne sais pas si toutes les fonctionnalités ont été implémentées mais je pense que l’essentiel est là, après c’est une implémentation du langage et pas du framework en entier étant donné qu’une bonne partie est close source.
Quand j’avais regardé un peu .net (un peu après la sortie de la v4), mono en était en v2. Et se retrouver avec la portion congrue de l’environnement .net, bah autant ne pas faire du .net et aller sur du java et son environnement qui est lui entièrement multi-plateforme (et à de rares exceptions près entièrement open source), ou mieux du scala qui profite de l’environnement java en permettant de surpasser la très grande majorité des problèmes de java.
Globalement en l’état, pour vouloir faire du .net, faut vraiment décider de se donner corps et âmes à Microsoft et d’ignorer le reste du monde, ce qui n’est pas prêt de m’arriver.
Remarque ça a été le même problème avec Silverlight qui était vraiment intéressant par rapport à Flash tant que Microsoft respectait leur engagement du multiplateforme, et qui a perdu tout intérêt quand ils se sont retrouvés à avoir deux versions de retard dans la version Linux (gérée par Novell, sauf que Microsoft ne leur donnait pas toute la documentation, et pas assez en avance pour qu’ils puissent suivre) et ont décidé de mettre de plus en plus de trucs 100% Microsoft 100% fermé qui ne peut tourner sur aucune autre plateforme, et architecturer le tout fortement autour de ça (COM, OLE). Résultat ça a disparu avant même que Flash ne commence à se faire du souci avec HTML5 ^^.
Franchement même si sur certain point le .net a des avantages par rapport aux autres technos concurrentes, j’ai vraiment du mal à comprendre comment on peut décider de s’en fermer sur une techno propriétaire mono-plateforme quand tous les concurrents sont ouverts et multi-plateformes. Même si un tel environnement était très largement supérieur aux alternatives (et on est plus que très loin du compte), j’aurais du mal à comprendre une telle approche.
Le
21/03/2014 à
23h
49
youtpout978 a écrit :
Il y a certaine personne qui pense que le .net est génial mais veule pas en faire parce que c’est Microsoft, c’est un peu bête de s’en priver pour ça.
Personnellement, de ce que j’en ai vu il y a des trucs intéressants dans le .net, mais j’ai jamais cherché plus loin pour une raison majeure : ça implique de ne développer que pour Windows (parce que bon, Mono c’est bien gentil, mais t’es plusieurs versions en arrière et même comme ça tu n’as pas tout, donc autant ne pas faire du .net), et ça c’est du niet tout de suite, en particulier quand il s’agit de développer pour du serveur ; c’est pas demain la veille que je développerait quelque chose pour le faire tourner sur un serveur Windows, et encore moins un truc qui ne tournerait que sur un serveur Windows.
Pour les nouveautés java 8 (et même d’ailleurs une bonne partie de celles de 7 " /> ) j’ai toujours pas eu le temps de regarder en détail, mais j’ai globalement assez peur sur les détails justement, quand je repense à la façon dont ils ont fait les génériques (et encore plus depuis que j’ai découvert la gestion des génériques dans scala avec la gestion de la variance justement, même s’ils restent contraints par leur compatibilité avec java qui fait qu’ils sont victimes de cet erasure qu’ils ont contourné de façon plus ou moins élégante avec les Manifest puis les TypeTag).
Le
21/03/2014 à
23h
08
Yzokras a écrit :
Alors certes, maintenant que la solution est toujours de prendre un serveur de plus en plus gros, bref solution de facilité comme pour le langage (avant PHP c’était le Basic qui était le + populaire, parce qu’il était… “adapté” ?), ce n’est plus d’actualité…
Mouarf ! T’es vraiment sérieux ? Prendre un serveur toujours plus gros, c’est ce qui se faisait il y a 20 ans et jusqu’à il y a 10 ans hein… Les architectures de nos jours tablent plus sur l’extensibilité horizontale, pas verticale. Et au cas où tu n’aurais pas encore saisi, ça veut dire distribuer les opérations en multipliant les serveurs “de base” au lieu de chercher un serveur toujours plus puissant. La mode des supercomputers, c’est globalement obsolète, et ça se fait de moins en moins.
Et le C++ pour du web, c’est pas que ce n’est pas “simple”, c’est juste que c’est une merde sans nom, et qu’il faudrait développer tellement de frameworks autours pour pouvoir le faire sans réinventer la roue à chaque projet (et mettre 2 ans) que tu n’aurais plus aucun avantage du C++, et plus d’inconvénients que java, php, ruby et .net réunis !
charon.G a écrit :
En attendant je code en C++ pour la programmation cliente et .net (C#) sur serveur.
Un serveur sous Windows, mais quelle idée… Tu utilises IIS avec ça je suppose ? " />
uzak a écrit :
Pour revenir à la news : ne pensez vous pas que les lambdas expressions vont nuire à la lisibilité du code ?
Franchement, quel intérêt, à part mettre des miettes de code partout ?
Plus verbeux (le java actuel, on fait difficilement pire niveau verbosité) ne veut pas dire plus lisible. Bien au contraire c’est souvent beaucoup moins lisible parce que la logique du code et des traitements se retrouvent perdue dans l’amas énorme de boilerplate.
Bien sûr comme tout le reste les lambdas vont être mal utilisés par beaucoup et donneront des trucs illisibles, mais bien utilisés ça améliore au contraire largement la lisibilité du code, ainsi que sa maintenabilité en permettant dans bien des cas d’éviter des répétitions inutiles. Globalement la popularité des lambdas (et plus globalement des fonctions comme objets de première classe) aujourd’hui vient d’un retour sur le devant de la scène de la programmation fonctionnelle, qui pour bien des choses (pas toutes, et il est important de bien choisir ses outils, et c’est ce qui fait qu’on bon développeur est un bon développeur) permettent d’avoir du code plus lisible, plus efficace, et plus facile à maintenir que du code purement impératif, en plus d’être dans l’ensemble beaucoup plus adapté à des architectures distribuées, architectures qui sont les plus adaptées pour la plupart des projets aujourd’hui.
Max81 a écrit :
Si seulement Python pouvait avoir un typage plus strict et autant d’outils que pour le Java… On pourrait simplement arrêter d’utiliser le Java et utiliser un langage plaisant à utiliser. Vous savez, pas un C++ simplifié. Un langage qui permet d’exprimer en peu de lignes ce qu’on cherche à faire et de manière élégante.
Python avec un typage plus strict, ce n’est plus du python hein…
Par contre si tu veux un langage plus expressif que du java, et plus souple, et qui pour autant bénéficie tout de même de tout l’environnement java par une compatibilité bytecode, t’as Scala, qui prend chaque jour un peu plus d’ampleur et est désormais particulièrement mûr ; ou Groovy si vraiment t’as pas envie d’aller trop loin de ta zone de confort (en étant caricatural, Groovy c’est du syntaxic sugar sur Java qui rend tout ça nettement plus plaisant à utiliser, plus efficace, et avec un typage moins fort que côté java, sans pour être complètement du typage dynamique comme python). Ou alors tu peux t’orienter vers d’autres langages fonctionnels sur la jvm, mais qui dans l’ensemble ne sont pas compatibles avec les librairies existantes, et beaucoup plus jeunes, comme clojure ou fantom.
sr17 a écrit :
Et bien si…
Mais effectivement, dans la petite web agency du coin, ça n’est pas courant.
Par contre, sur des services web qui demandent des centaines de milliers de serveurs, c’est bien le genre de question qui se pose.
Donne donc des exemples, au lieu de juste affirmer. Parce que chez les plus gros services web, C++/CGI ne montrent pas le bout de leur nez hein… C’est du java, du ruby, du php, du scala, du nodejs, parfois du .net aussi (StackOverflow par exemple, même s’il est très loin des plus gros services comme Google, Facebook, Twitter, YouPorn - ce dernier c’est du php avec le framework Symfony2 par exemple).
Les seuls services web que j’ai pu voir en C++/CGI, ils ont été développés il y a 20 ans, comme pour les services web en perl, et certains n’ont pas changé de techno en cours de route et continuent d’essayer de faire évoluer leur plat de spaghetti, mais c’est d’une rareté incroyable, et sauf les monomaniaques du langage, ils utiliseraient tous une autre techno s’ils devaient le refaire de zéro aujourd’hui.
Alesk a écrit :
(xml = langage machine)
Euh, non, absolument pas… xml est un langage qui est fait pour être lisible par un être humain, tout en étant facilement interprétable par la machine et en permettant de valider les fichiers selon un certain nombre de règles. Des langages de description comme le yaml ou le json sont de nos jours préférés pour les fichiers “lisibles par des humains”, mais uniquement quand on se fout des options de validation de fichier du xml.
Si tu veux des fichiers de description spécifiquement pour les machines, t’utiliseras pas du XML…
youtpout978 a écrit :
Sharepoint is a colossal piece of shit.
Ne le lui conseil pas SharePoint si tu ne veux pas le dégoûter des technos Microsoft.
T’inquiètes, si il n’est pas dégoûté des technos Microsoft aujourd’hui, il ne le sera probablement jamais " />
pour tout (quel que soit aussi dans mon cas) : un V avec une barre horizontale (ou un A à l’envers)
Idem pour appartient, ensemble, moyenne, somme etc.
Pour le coup, il fallait une pierre de Rosette à mes potes quand je leur passais mes notes de cours " />
Si tes potes en prépa ne comprenaient pas ces abréviations mathématiques qui sont un standard depuis plus de 50 ans, ils n’ont pas du aller bien loin… 7⁄2 à Jussieu ? " />
Le
19/03/2014 à
23h
41
Commentaire_supprime a écrit :
C’est marrant, mais je n’ai jamais écrit un SMS en langage SMS… même du temps où j’avais un vieux Motorola.
Bon, je n’en envoie pas 50 par jour aussi, et je suis un littéraire qui essaye toujours de soigner son expression.
Pareil, mais du côté scientifique ; il faut dire que dans mes études scientifiques, ça a été beaucoup à base de “si t’es pas capable d’exprimer ton raisonnement en français, c’est que y a pas de raisonnement, donc c’est un zéro pointé” (et c’est ce qui fait que ça m’a toujours fait marrer de voir les excuses des kevins sur les forums du genre “lé fôte sé pa ma fot sé parsseke ge sui mateuh”)
On feraient peut être mieux de donner des moyens corrects à la justice pour quelle devienne rapide et efficace quel que soit le type de dossier traité,
plutôt que de rajouter encore une institution pseudo?/réellement?-indépendante….
Accélérer quoi que ce soit n’est pas dans leurs objectifs, mis à part le filtrage lui-même. J’ai l’impression que la plupart des gens n’ont pas repéré que non seulement c’est une autorité administrative “indépendante”, mais elle ne fait qu’un “contrôle a posteriori”. En gros, on filtre autant qu’on veut, et peut-être qu’ici ou là l’administration va contrôler quelque chose, et peut-être même qu’elle aura le pouvoir de suspendre le filtrage, plusieurs mois ou années après sa mise en place… (et encore, seulement si elle a un minimum d’indépendance : rappelez-vous du tribunal qui contrôlait a posteriori les actions de la NSA, et qui trouvait régulièrement que la NSA violait la loi, mais la laissait pourtant continuer d’opérer de la même façon en violant la loi).
regarde sur 12 ans le nombre de N°1 dans le secteur, et tu verras à quel point et à quelle vitesse les positions évoluent rapidement dans ce secteur (plus ou moins dans l’ordre: Palm, Windows Mobile, BlackBerry, iOS, Android - je ne crois pas en oublier). Bref, 6 ans de retard, c’est vrai, que ça fait beaucoup trop, c’est trop vite parler " />
Au hasard, Symbian ? Faut le faire quand même pour l’oublier là-dedans… Je rappelle qu’il a perdu sa première place face à Apple seulement un peu après le burning platform memo d’Elop.
J’ai regardé par curiosité, et sur mon poste de travail (Arch + enlightenment) ça donne ça :
:: aria2 : requiert gnutls
:: connman : requiert gnutls
:: ffmpeg : requiert gnutls
:: glib-networking : requiert gnutls
:: libimobiledevice : requiert gnutls
:: smbclient : requiert gnutls
:: wireshark-cli : requiert gnutls
édit: bref, si ça te dégage masse de trucs sur ta machine, c’est des histoires de dépendances de dépendances (de dépendances…), peut-être avec ton interface graphique préférée.
Très probable qu’il y ait des dépendances complètement overkill sur des meta-packages quelque part.
Typiquement pour installer yakuake dans un environnement non kde, tu te retrouves à récupérer quasiment tout kde (mais aussi des libs de vlc, et d’autres trucs qui n’ont rien à voir) parce qu’il y a une dépendance sur kde-base, alors qu’en pratique ça doit avoir besoin de 2-3 librairies utilisées par kde-base (pour rappel c’est juste un terminal en drop down similaire à la console de Quake, comme Guake dans l’univers GTK - mais en vachement mieux ;))
Mais là également ça ressemble uniquement aux dépendances directes dans ce que tu affiches. Typiquement sur mon serveur debian stable, j’ai par exemple la libldap qui dépend de libgnutls26 (et postgresql qui dépend de la libldap, de mémoire pour gnupg et apache2 (*)), et en dépendance directe j’ai :
wget
libldap-2.4-2
mutt
libgcrypt11
lftp
Note : il me semble que pour apache2, c’est juste une dépendance du paquet, mais elle n’est utilisée que lorsque mod_gnutls est utilisé (en général on utilise plutôt mod_ssl qui utilise openssl)
P.S. pour ceux utilisant un dérivé debian, la commande suivante vous donnera récursivement les dépendances inverses (installées) :
apt-cache –recurse –installed rdepends libgnutls26 | less
Comparer un dumb-phone avec un smartphone c’est quand même osé je trouve.
Ne serais-ce qu’en terme de temps passé on est pas au même niveau.
Ma comparaison se faisait en utilisation “communications sans data”, autrement dit dans un contexte où justement tu ne fais rien de plus avec ton smartphone qu’avec un dumbphone : et même dans un tel contexte, l’autonomie des smartphones est très largement inférieure à celle des dumbphones d’avant l’éclosion des smartphones.
Et justement pour moi le minimum, après autant d’années, serait que pour un usage “dumbphone”, les smartphones aient au moins la même autonomie ; or on en est encore loin, et bien que la majorité des utilisateurs se plaignent de l’autonomie de leur téléphone, les constructeurs continuent de préférer se tirer la bourre sur l’épaisseur du téléphone, quitte à pousser au point d’en être ridicule (le Razr de Motorola est un exemple frappant : ils ont visé l’épaisseur, sachant que la comparaison se fait à l’endroit le plus fin, et au final ils ont un téléphone qui a l’endroit le plus épais est très épais, et une autonomie ridicule, alors qu’ils auraient pur rajouter une plus grosse batterie - plus épaisse - sans rien perdre au final sur l’épaisseur “effective” du téléphone, tout en apportant une énorme amélioration d’autonomie).
À aujourd’hui, et je suis probablement loin d’être le seul, ce qui me limite dans l’utilisation de mon smartphone, c’est l’autonomie exécrable (sachant que le push mail et l’imap idle, dès qu’en pratique t’as des règles de tri côté serveur et que donc derrière tu “suis” d’autres dossiers en plus de simplement la inbox, la batterie fond comme neige au soleil ; et la consommation data ridicule mais relativement fréquente d’applications comme Jabber ont le même effet). Et au lieu de bosser pour maximiser l’aspect “communication” de leurs produits, les fabricants se tournent plus du côté “accessoire de mode” et du côté “console de jeux proposant des jeux débilisants et très limités”, et c’est bien dommage.
Le
21/02/2014 à
19h
24
A-snowboard a écrit :
J’ai eu un peut de mal à tout capter au début.
Je parlais de la batterie et là tu me parle en fait de la data.
Oui activer et désactiver la data toute la journée c’est risible.
Bah les deux sont liés, puisque garder la data tout le temps fait que ta batterie se vide en un rien de temps ;)
A-snowboard a écrit :
Après je disais juste que les batteries, ça commence à s’améliorer.
(Mais vu qu’on parle pas exactement de la même chose, ça fait bon dialogue de sourd ! " /> )
Ça reste quand même super léger au niveau amélioration. À tel point que même sans activer la data, on est toujours à une échelle différente en termes de durée qu’avec nos vieux dumb-phones ; le minimum qu’on pourrait attendre depuis le temps, c’est qu’au moins avec la data désactivée on ait retrouvé la même autonomie qu’avant, mais on en reste loin. Et on aurait pu aussi imaginer que depuis le temps l’utilisation de la data, en particulier en tâche de fond pour des services type jabber ou les push mail / imap idle, soit devenue plus économe en énergie, pour gagner en autonomie générale. Et bien sûr, avec la data activée (ce qui représente quand même un intérêt important des smartphones, en particulier pour tout ce qui est communication - aller sur youtube sur mon téléphone, je m’en cogne, avoir dans un seul combiné accès à tous mes moyens de communication, ça c’est top, les avoir pour un peu plus de quelques heures sans avoir à recharger, ça rendrait le truc utilisable).
Le
20/02/2014 à
23h
42
A-snowboard a écrit :
+1, mais ça s’arrange un peut de ce coté là. (et puis si on utilise un peut moins son tel c’est pas mal aussi !)
Autant quand il s’agit d’aller faire le kikoo sur le net, oui on n’en a pas besoin tout le temps. Si c’est pour devoir la mettre et l’enlever toute la journée, c’est moyen pour un dispositif de communication (les différentes applis propriétaires et fermées de messagerie instantanée), et ça fait que c’est pas près de détrôner le SMS.
A-snowboard a écrit :
le protocole des mail est ouvert non ? On peut communiquer de gmail à hotmail.
C’est les données qui sont propriétaires. tes mail sur gmail sont stockés par google.
Par contre rien n’empêche de changer d’hébergeur.
Oui c’est ce que j’expliquais. Et comme le protocole est ouvert, on peut également s’auto-héberger (c’était d’ailleurs un peu la norme au départ, la syntaxe des adresses mails disant “c’est machin sur la machine bidule”, et que tel qu’a été conçu le net - pair à pair - initialement, y avait pas quelques millions de clampins sur la même machine ;) - cf. les conférences de Benjamin Bayart).
A-snowboard a écrit :
Whatsapp et compagnie : c’est sur le manque d’intercompatibilité, ce qu’apporterais la solution orange si j’ai bien capté.
Mais le stockage des données sera bien stocké par des entreprises.
Vis-à-vis de la solution Orange (‘fin plutôt leur protocole en-dessous, Joyn), on manque encore un peu d’infos. Autant leur appli (Libon) est propriétaire, mais avec avec des clauses de licences suffisamment ouvertes pour que plusieurs entreprises puissent l’utiliser (avec a priori donc les données chez eux), du moins selon ce qui est dit dans l’actu, autant le protocole Joyn semble ouvert.
Et dans le second cas, cela permettrait donc a priori à n’importe qui d’avoir un serveur Joyn interconnecté au réseau et qui stockerait les données de ses utilisateurs, sur le même principe que Jabber.
Mais même sans l’aspect “où sont stockées mes données”, rien que le fait d’avoir un protocole suffisamment ouvert pour qu’on puisse communiquer indépendamment du fournisseur, c’est quand même une avancée énorme, du moins si elle marche. C’est globalement la deuxième phase d’avancée en ce sens dans la messagerie instantanée, la première n’ayant malheureusement pas eu un franc succès : au départ avec la MI, tu ne communiquais qu’avec les gens chez le même fournisseur (ICQ, AIM, MSN, etc.) ; je n’ai jamais compris d’ailleurs comment ça se fait que ça n’ait choqué à peu près personne, alors même qu’à l’époque le mail était ouvert (et essayer de leur faire comprendre le problème en leur demandant d’imaginer une situation où tu ne pourrais pas envoyer un mail à un client AOL si toi t’es chez Wanadoo, ça n’avait aucun effet).
La première phase d’avancée a été avec XMMP (Jabber), et en parallèle plusieurs des services existants ont développé des interconnexions entre leurs services (plus ou moins fusions) ; toute fois aucun d’entre eux n’a intégré Jabber ; Google a adopté Jabber pour sa MI, mais ça n’a au final pas marché, et le fait qu’ils aient bien caché au quidam lambda que c’était du Jabber n’a pas aidé non plus (je ne comptes plus le nombre de fois où j’ai essayé tant bien que mal de faire comprendre à des gens qu’avec leur MI Google, ils pouvaient communiquer avec moi via Jabber alors que j’étais pas ches Google, sauf exception en vain) ; il y a eu ensuite Facebook qui s’est appuyé sur XMMP en rajoutant des éléments propriétaires au protocole, et là encore en faisant tout pour éviter qu’on sache que c’était Jabber en-dessous : résultat, Jabber ne décolle pas, voire régresse aujourd’hui :(
On a alors eu l’essor des applications de chat web comme Whatsapp, qui pour une raison qui m’échappe ont bien marché (et là encore, impossible de faire comprendre aux gens que le fait qu’on ne puisse communiquer qu’avec les gens sur le même service, avec un protocole propriétaire et fermé, c’était une aberration ; là encore l’analogie avec le mail, ou, plus parlante pour la génération en question, le SMS - ce seraient pourtant les premiers à trouver que ce serait nul s’ils ne pouvaient pas envoyer des SMS vers leurs copains SFR en étant chez Orange -, n’ont jamais eu le moindre succès).
On assiste donc à un deuxième élan de tentative d’uniformisation des protocoles de communication autour d’un protocole plus ou moins ouvert (évitant de soit segmenter la population, soit mener à un monopole privé mondial sur la messagerie mobile) : espérons que cette-fois ça décolle, voire qu’à terme les passerelles XMMP puissent permettre la convergence de Jabber et de Joyn (je sais je rêve tout haut là).
A-snowboard a écrit :
J’ai bon ou je suis à coté de la plaque ? (je maitrise pas tout dans ce qui est réseaux, protocoles et compagnie)
en même temps à part le protocole mail en lui même : hotmail, gmail, et compagnie… c’est du propriétaire hein ?
Après j’ai bien compris le sens du message et je suis d’accord avec toi.
Bah oui, à part ce qui fait que le mail est le mail, le mail c’est propriétaire… C’est justement toute la différence avec les Whatsapp et compagnie : il y a un protocole ouvert et commun, et tout le monde peut communiquer avec tout le monde grâce à ça, ce qui n’est pas le cas des Whatsapp et compagnie.
Le
20/02/2014 à
22h
37
A-snowboard a écrit :
Justement… Faut le net. Et pour le moment, il y a encore pas mal de zone en EDGE.
Sans oublier que la data activée, ça a un peu tendance à pomper ta batterie à vitesse grand V, et comme aucun constructeur n’a décidé de déplacer la concurrence sur ce point plutôt que la “finesse” des téléphones dont on se fout un peu depuis ce qu’on a déjà atteint il y a deux ans, bah c’est pas gagné non plus pour rester en permanence avec la data activée sans passer son temps à recharger le téléphone.
Honnêtement, plus de beaucoup, et au moins en Belgique on t’informe que la route est pourrie… C’était encore vrai il y a 10 ans par contre, mais depuis on dépense l’argent dans les boîtes à fric (les radars), et dans des aménagements à la con et accidentogènes (des dos d’âne mal foutus dans des endroits absurdes, des chicanes mal annoncées et mal conçues, etc.) plutôt que de s’occuper de l’état de la route ; et quand on s’occupe de remettre en état la route, on le fait tellement mal que non seulement en quelques mois c’est de nouveau pourri, mais en plus de plus en plus on le fait de façon à ce que l’eau ne s’évacue plus correctement, et t’as donc un peu partout dès qu’il a plu il y a moins de 24h des énormes flaques d’eau au beau milieu de la route, parfois bien caché en plein virage. Il n’y a pas si longtemps avec une grosse pluie, en prenant l’A6 à partir de Paris, je me suis retrouvé à faire de l’aquaplanage en ligne droite en côte parce qu’il y avait 20 centimètres de flotte sur la voie en conséquence de la mauvaise conception (ou plutôt catastrophique) de l’évacuation de l’eau…
Pour être allé de Paris à Bruxelles récemment, l’autoroute côté français était dans un état exécrable, sans le moindre panneau annonçant cet état de fait ; une fois passé la frontière, l’autoroute était toujours plus ou moins dans le même état, mais tous les kilomètres en moyenne, t’avais des panneaux t’indiquant “attention là y a plein de nids de poules”, ou “attention là le bas côté est dégueulasse” ; donc au final, la route était pareille, mais t’étais plus en sécurité parce qu’informé des dangers.
Pour du KDE, je préfère largement Mageia. Intégration top niveau, largement à la hauteur d’Open Suse, mais en plus joli pour moi d’un point de vue subjectif (et sans les pilotes Nvidia qui partent en vrac, mais ça a sans doute été corrigé ça).
En KDE, mon intégration préférée pour l’instant, c’est SolydK, un distribution semi-rolling à base de Debian testing (y a la version XFCE aussi), créée par le gars qui maintenait avant LMDE KDE ; et contrairement à LMDE qui est un peu la dernière roue du carrosse pour l’équipe Mint et qui donc se retrouve à rester figée super longtemps (le pire a été au moment de la sortie de la dernière stable, la LMDE est restée figée tellement longtemps qu’on est resté pendant pas loin de neuf mois dans l’état de la testing de 3 mois AVANT la release de la stable, donc pendant près de 6 mois en retard sur la stable…), elle est bien suivie.
Commentaire_supprime a écrit :
Kubuntu, j’ai commencé avec mais c’est pas ce qui se fait de mieux en intégration KDE. Toutefois, c’est utilisable.
C’est même probablement une des pires intégration de KDE, du moins dans les distributions un peu connues.
Le
21/02/2014 à
20h
10
loloemr a écrit :
Non c’est une distribution dérivée officiel, qui a eu en tout et pour tout un developpeur qui a ensuite été réaffecté à autre chose..
C’était une distribution dérivée officielle (mais qui n’avais très peu de main d’œuvre puisqu’un seul dev dessus comme tu l’as précisé), et qui est devenue une distribution communautaire depuis qu’ils ont réaffecté le seul dev officiel qui bossait dessus.
Honnêtement pour de l’Ubuntu avec KDE, plutôt que Kubuntu j’aurais tendance à conseiller Linux Mint KDE.
Le
21/02/2014 à
19h
58
nicomar a écrit :
“C’est d’ailleurs ce phénomène partiel de rejet qui a permis à d’autres environnements de bureau comme MATE et Cinnamon de voir leur succès grandir, en remettant au goût du jour une ergonomie classique de type GNOME 2.0 […]
Il faut dire qu’Unity tranchait radicalement de l’ancien GNOME”
On peut très bien utiliser Ubuntu gnome moi j’aime beaucoup !
Rien à voir, c’est du Gnome 3, là on te parles d’environnements qui ont une ergonomie plus similaires à celle de Gnome 2. Les changements de Gnome 3 par rapport à Gnome 2 sont aussi importants, et ont tout autant énervé la communauté (et il a fallu du temps à l’équipe Gnome pour accepter de les écouter, d’où l’apparition de Mate et Cinnamon).
Konrad a écrit :
En revanche sur mon PC de bureau je reste avec Debian testing (pour le côté rolling release) + KDE qui reste mon environnement de bureau préféré (mais malheureusement un peu trop lourd pour un petit Netbook à base d’Atom).
Tu devrais refaire un essai, parce que je le trouve pas spécialement lourd sur les dernières versions (comparé à Unity, pas à un Xfce bien sûr), et dans l’ensemble beaucoup plus réactif (ce qui me marque toujours autant avec Unity à chaque fois que je l’utilise, c’est son manque de réactivité).
D’autant que la variante Plasma Active de KDE (la plupart des éléments sont partagés) fonctionne très bien par exemple sur mon ExoPC (tablette x86 qui commence à énormément dater quand même, et n’est a priori pas plus performante que ton netbook à base d’Atom ;))
Le
21/02/2014 à
19h
52
freechelmi a écrit :
de toutes façons dans les milieux pro , on restera sur 12.04 au moins jusqu’en 2016 et là on envisagera de migrer sur 14.04 donc on reste avec nos jolis global menus pour encore quelques années :-)
Uniquement dans les milieux pros qui gèrent ça de façon centralisée sur des parcs assez importants, avec nécessité de faire une validation complète de l’environnement, et sont donc souvent très lents à passer aux versions plus récentes.
Dans ma boîte par exemple, c’est distribution au choix, donc on a un peu de tout (tout en restant dans le Debian based) : des Ubuntu/Kubuntu LTS, des qui mettent à jour presque toute de suite, des qui ont presque tout le temps une version de retard, des qui sont sur LMDE/SolydXK. Enfin pour ceux qui sont sous Linux, puisqu’en dehors de la R&D c’est Windows (et pour l’admin aussi, beurk).
Max81 a écrit :
Tout le monde déplace les fenêtres par Alt+Clic non ? En dehors de ceux trop habitués à Windows.
Pas forcément systématiquement non : c’est souvent que je suis bien content de déplacer une fenêtre juste avec la souris (et c’est pas par habitude de Windows que je n’utilise plus qu’occasionnellement depuis pas loin de 10 ans)
Globalement cette évolution est une bonne chose je trouve (reste à voir l’interaction avec le drag and drop par la barre de titre par contre). Mais Unity reste en ce qui me concerne toujours loin d’être adapté ; j’ai retesté récemment, et c’est toujours affreusement pas réactif au niveau de leur dashboard pour lancer une app. Sans compter que leur barre est particulièrement hideuse en ce qui me concerne, et que ça fait bien chier de devoir commencer par virer leur connerie de scroll bar qui disparaissent, ou maintenant leur ajout de contenu commercial dans la recherche du dashboard avant de faire quoi que ce soit (c’est pas très long, mais bon par principe, surtout que pour les scroll bars faut retrouver quelle est la lib qu’il faut désinstaller…).
En plus je l’ai testé sur une tablette récemment, et au final ça fait mal au cœur quand même : c’est une interface qui en fin de compte avait clairement été pensée initialement avec le tactile en tête, mais qui se trouve pas plus utilisable que Gnome 2 en tactile, voire moins… D’ailleurs ils ont du s’en rendre compte puisque pour Ubuntu Touch ils sont finalement partis sur quelque chose de complètement différent à base de Qt, alors qu’Unity était conçu à la base pour avoir une seule interface adaptable sur les desktop, les laptop, et les tablettes tactiles.
De l’autre côté on a KDE et Plasma active, et là ils ont eux réussi à avoir une interface qui est à la fois adaptée et efficace pour du desktop productif, et adaptée et utilisable pour une tablette tactile.
manus a écrit :
J’ai jamais compris pourquoi, personne ne reprends les systèmes de menu en “fleur” comme ceux contextuels des soft de graphisme (Maya, 3DS,…).
Un appuis long ou une touche permettant de l’activer et hop le menu autour du pointeur, donc distance minimum (pratique pour la souris ou le tactile).
Si t’es obligé de passer par le clavier pour accéder au menu, pour ensuite devoir utiliser la souris pour l’utiliser, y a un gros problème d’ergonomie… Un bon système de menu peut s’accéder et s’utiliser efficacement d’une part uniquement avec le clavier, et d’autre part uniquement avec la souris : être obligé (ou quasiment - d’expérience une fois ouvert, naviguer dans un menu circulaire au clavier est tout sauf efficace) d’utiliser les deux est un énorme défaut.
Le
21/02/2014 à
19h
39
Edtech a écrit :
Je préférerais qu’ils virent ces menus textuels hideux où l’on ne trouve rien ! A ce niveau, je trouve Windows nettement en avance puis que ça avait été entamé avec Vista.
Un menu textuel en tactile, c’est juste inutilisable, à moins de le faire tellement gros que ça en devient laid…
Et tu les remplaces par quoi ? La mode des menus “icônes” où là vraiment tu ne trouves rien sauf si tu sais déjà exactement ce que tu veux et comment il a été représenté ? J’arrête pas de perdre un temps fou à tester plusieurs icônes sur ce genre d’interface avant de trouver celle qui fait ce que je veux… Mais c’est supposé être “intuitif” il paraît.
Sachant que sur Windows, y a toujours autant de menus textuels, ils sont justes en général cachés par défaut et il faut utiliser la touche ALT du clavier pour les faire apparaître, fabuleux quoi : t’as maintenant besoin de la souris ET du clavier pour faire ce que tu faisais uniquement à la souris (ou alors tu restes en full clavier, mais dans certains cas c’était bien pratique de faire des trucs à la souris). Sans parler du déplacement de contenu que provoque l’apparition / disparition des menus en question qui a personnellement tendance à me donner la gerbe.
en dehors de l’intranet (qui n’est que du html basique) et des applis pro (qui n’utilisent pas de plug-in particulier de Fx), tous les sites sur lesquels je vais au taf, j’y vais aussi chez moi…
et les sites provoquant problème au taf n’ont quasi pas d’INpact chez moi!
Bizarre, parce que même sous XP (donc 32 bits) il y a quelques années (ça commence à dater là maintenant, vu que j’étais passé par Vista après l’avoir eu via MSDN moins d’un an après sa sortie) j’avais pas spécialement des consommations mémoire ahurissantes par rapport à aujourd’hui (après à l’époque je saturais la mémoire de l’ordi, donc ça pouvait plus monter plus, mais rien que rajouter de la mémoire dispo ça fait que Firefox prend un peu plus ses aises aussi :p - il y a 3 ans sous Linux au boulot, j’avais plus de 500 onglets dans moins de 500 Mo, mais ça pouvait pas prendre plus non plus avec seulement 1 Go de RAM sur un vieux P4 ^^).
Après ma mémoire me fait peut-être aussi un peu défaut, vu que j’ai pas touché un OS 32 bits depuis XP justement (et déjà à l’époque la machine Windows servait principalement au jeu, donc beaucoup moins d’onglets ouverts en proportion).
Le
19/02/2014 à
22h
06
Patch a écrit :
je dirais plutôt le panda roux, qui a l’air d’avoir moins de fuites mémoire sur un OS 64bits (c’est bien un 8 64 que tu as?).
enfin du moins c’est ce que j’ai remarqué, chez moi je le torture au maximum il dépasse difficilement les 600Mo de RAM occupée, au taf avec un 7 32bits selon ce que je fais au bout de 30 min faut déjà que je tue le plugin container qui dépasse allègrement le Go…
Ouep ce sont les plugins le problème. Après au boulot tu vas peut-être plus sur des sites qui te balancent 3 tonnes de flash pour des conneries (c’est encore vachement la mode sur les sites institutionnels de tout faire en flash ou du moins d’en utiliser à tout va). Le flashblock est un indispensable pour ça d’ailleurs :)
C’est quand même assez fabuleux que le Conseil d’État puisse refuser qu’Orange adresse une QPC au Conseil Constitutionnel, sous prétexte que “selon eux”, il n’y a pas matière, et puis que la décision du CC d’il y a quelques années qui est quand même sur un domaine très proche, “c’est pas pareil parce qu’on l’a décidé, et c’est pas nécessaire de demander au CC si effectivement sa décision d’il y a quelques années doit s’appliquer dans ce cadre qui est quand même vachement proche”…
Et y a pas à dire, y a pas trop de surprise à voir le Conseil d’État statuer dans le sens de l’État bien que le tribunal de première instance et la cour d’appel aient statué contre lui, et bloquer par la suite les autres possibilités de recours, parce que bon, “faudrait pas qu’une autre juridiction moins soumise à l’État vienne invalider cette décision aberrante”.
Douce France…
Bon le problème c’est que c’est de pire en pire partout ailleurs également, difficile d’y échapper et c’est pas pour demain que le peuple se soulèvera non plus :(
435 commentaires
Apple Watch, iPhone 6 (Plus), Apple Pay et l’album de U2 : ce qu’il faut retenir
09/09/2014
Le 09/09/2014 à 22h 16
Le 09/09/2014 à 22h 10
Le 09/09/2014 à 22h 06
Et si on recensait les « dysfonctionnements et tromperies » des opérateurs ?
28/08/2014
Le 30/08/2014 à 21h 59
Le 28/08/2014 à 18h 10
Démission du gouvernement : quels effets sur le numérique ?
25/08/2014
Le 25/08/2014 à 16h 48
Les sénateurs desserrent les boulons du statut des VTC
24/07/2014
Le 24/07/2014 à 19h 21
Les VTC manifestent contre un nouveau boulet à leur parechoc
21/07/2014
Le 24/07/2014 à 19h 06
Le 22/07/2014 à 21h 56
Le 22/07/2014 à 21h 55
La Hadopi de plus en plus piégée par les délais de la riposte graduée
17/07/2014
Le 18/07/2014 à 22h 29
Machine Zone n’a publié qu’un jeu sur mobile et vaudrait déjà 3 milliards
17/07/2014
Le 18/07/2014 à 22h 24
Le 18/07/2014 à 22h 14
Miracle : une option pour supprimer les sponsors à l’installation de Java
17/07/2014
Le 18/07/2014 à 21h 51
À part ça, il est mentionné dans la news que la modification concerne les mises à jour automatiques java 7 et 8 en 32 bits et 64 bits, j’en conclus que la mise à jour automatique sur les versions 64 bits est supposée être fonctionnelle maintenant ? Parce que personnellement sur mon windows 7 64bits (je dev pas dessus donc je m’occupe pas non plus trop du runtime java), j’ai encore jamais vu la mise à jour automatique de java 64 fonctionner.
Bon il est possible que le fait que j’utilise au quotidien un compte utilisateur qui n’est pas administrateur (usage qui était supposé être l’usage prévu à partir de Vista et l’UAC, mais qui a été pourri par Microsoft avant même la version finale de Vista) soit lié, vu que j’ai noté qu’un sacré paquet d’applications n’étaient pas foutues d’arriver à demander l’élévation de privilèges pour les mises à jour dans ce cas de figure, mais il me semble bien me souvenir que c’était “normal” qu’il n’y ait pas de mise à jour automatique pour java7 64, et je n’ai pas vu passer depuis d’annonce comme quoi ça aurait changé ;)
Mais c’est peut-être aussi parce que c’est un JDK et non une JRE ?
Le 18/07/2014 à 21h 47
Le 18/07/2014 à 21h 35
GitHub libère son éditeur Atom et évoque les versions Linux et Windows
09/05/2014
Le 09/05/2014 à 19h 22
400 000 comptes AOL détournés pour générer du spam
30/04/2014
Le 30/04/2014 à 19h 48
Contrat Open Bar entre Microsoft et la Défense : la réaction de l’AFUL
24/04/2014
Le 25/04/2014 à 21h 14
Le 25/04/2014 à 00h 12
Canal+ se met au Binge watching et à la diffusion (presque) simultanée
24/04/2014
Le 25/04/2014 à 00h 38
Accord « Open Bar » : la Défense explique son choix pour Microsoft
24/04/2014
Le 24/04/2014 à 23h 51
Et n’oublions pas qu’ici même en France, la Gendarmerie Nationale a à peu de choses près terminé sa migration complète sous Linux (GendBuntu, dérivé d’Ubuntu), avec grand succès et d’importantes économies.
On pourra consulter par exemple un (vieil - 2009) article de linuxfr à ce sujet, qui relève entre autres une annonce par la Gendarmerie Nationale d’économies à hauteur de 70% (50 millions) grâce à cette migration (alors pas encore finalisée) sur la période 2004-2009.
Les économies réalisées sont sans équivoque 70% soit 50 millions € depuis 2004. Jusqu’à 2004 la Gendarmerie achetait entre 12 000 et 15 000 licences par an. En 2005 ce chiffre est tombé à 27.
On peut d’ailleurs consulter le support de la présentation du lieutenant-colonel Xavier Guimard à Utrecht aux Pays-Bas, au sein duquel on peut par exemple voir (page 19), à propos de la migration vers OpenOffice :
? DOCUMENTS NORMALISÉS
? APPLICATION MULTI-PLATEFORME
? UNIFORMISATION DE LA VERSION UTILISÉE
? 2 M€/AN D’ÉCONOMIE IMMÉDIATE
? FONCTIONNE TRÈS BIEN SUR DES MACHINES ÂGÉES DE 5 ANS
? LA MÊME OPÉRATION AVEC WORD 2007 AURAIT COÛTÉ PLUS DE 50 M€
Bizarrement ça donne une autre vision des “arguments” avancés par la Défense Nationale pour justifier un choix absurde probablement conséquence de corruption plutôt que de raison.
Le 24/04/2014 à 23h 34
Motorola Solutions paiera des royalties à Microsoft pour les brevets Android
22/04/2014
Le 22/04/2014 à 22h 47
L’effectif français des cinq grands opérateurs en forte baisse en 2013
19/04/2014
Le 20/04/2014 à 15h 05
Faille Heartbleed : le danger vient de ceux qui gardent le silence
11/04/2014
Le 11/04/2014 à 20h 57
Java 8 débarque enfin avec ses expressions lambda et sa sécurité renforcée
19/03/2014
Le 22/03/2014 à 01h 26
Le 22/03/2014 à 01h 07
Le 22/03/2014 à 00h 29
Le 21/03/2014 à 23h 49
Le 21/03/2014 à 23h 08
Leu lenguage SMS né pa raisponsabl D difQLt an ortaugraf
19/03/2014
Le 19/03/2014 à 23h 42
Le 19/03/2014 à 23h 41
Filtrage : le gouvernement confirme la piste du blocage sans juge
19/03/2014
Le 19/03/2014 à 20h 08
Ballmer : « Nous n’avons pas réuni le matériel et le logiciel assez tôt »
05/03/2014
Le 06/03/2014 à 02h 11
Une faille critique dans la gestion des connexions TLS/SSL fragilise Linux
05/03/2014
Le 06/03/2014 à 01h 31
Orange veut imposer Libon comme solution universelle de messagerie
20/02/2014
Le 22/02/2014 à 17h 10
Le 21/02/2014 à 19h 24
Le 20/02/2014 à 23h 42
Le 20/02/2014 à 22h 42
Le 20/02/2014 à 22h 37
Pourquoi Amazon ne vend plus de supports vierges en Belgique
21/02/2014
Le 21/02/2014 à 20h 33
Ubuntu 14.04 : cachez cette barre de menus que je ne saurais voir !
21/02/2014
Le 21/02/2014 à 20h 15
Le 21/02/2014 à 20h 10
Le 21/02/2014 à 19h 58
Le 21/02/2014 à 19h 52
Le 21/02/2014 à 19h 39
Quand un ancien de Microsoft décrit Metro comme l’antithèse du power user
19/02/2014
Le 19/02/2014 à 22h 26
Le 19/02/2014 à 22h 06
Pourquoi les FAI vont devoir travailler à l’oeil pour l’État
19/02/2014
Le 19/02/2014 à 22h 21
C’est quand même assez fabuleux que le Conseil d’État puisse refuser qu’Orange adresse une QPC au Conseil Constitutionnel, sous prétexte que “selon eux”, il n’y a pas matière, et puis que la décision du CC d’il y a quelques années qui est quand même sur un domaine très proche, “c’est pas pareil parce qu’on l’a décidé, et c’est pas nécessaire de demander au CC si effectivement sa décision d’il y a quelques années doit s’appliquer dans ce cadre qui est quand même vachement proche”…
Et y a pas à dire, y a pas trop de surprise à voir le Conseil d’État statuer dans le sens de l’État bien que le tribunal de première instance et la cour d’appel aient statué contre lui, et bloquer par la suite les autres possibilités de recours, parce que bon, “faudrait pas qu’une autre juridiction moins soumise à l’État vienne invalider cette décision aberrante”.
Douce France…
Bon le problème c’est que c’est de pire en pire partout ailleurs également, difficile d’y échapper et c’est pas pour demain que le peuple se soulèvera non plus :(