C'est une bonne idée de partager les expériences sur ce type de matériel. Je suis surpris que certains semblent changer autant de claviers. Comment les tuez-vous aussi vite ? C'est une touche qui claque en particulier ?
Pour ma part, j'avais commencé mon expérience du clavier mécanique avec un Razer Blackwidow en cherry blue. J'adore la sensation de frappe et le clavier est intuable. Mais cela provoque des envies de violences de la part des autres personnes en open space...
J'ai dû me résoudre à passer à autre chose. J'ai pris un corsair K65 LUX RGB en cherry red. J'utilise le rétroéclairage qu'en blanc. J'aime bien le format plus réduit, mais je ne suis pas fan des cherry red. Je préfère effleurer les touches jusqu'au déclenchement réel. Je le garde pour le boulot.
J'ai tenté aussi les claviers ergonomiques. J'ai un Model 100 de chez keyboard.io C'est vraiment très agréable à utiliser. J'aime le principe de changer les cherry à l'envie. C'est plus durable en plus. J'ai pris des marrons. Ça ne vaut pas encore les bleus à mon goût.
En tant que développeur qui écrit pas mal et qui aime les claviers réduits, ma vie a changé quand un pote m'a fait découvrir le ergo-l. C'est super bien fichu une fois qu'on s'y est fait. Du coup, j'ai cherché comment avoir les touches marquées pour les autres. J'ai trouvé des sites qui permettent de faire des touches customisées et d'autres sites pour mettre des autocollants pour les portables. Je suis en train de tester tout ça ! Mon souci est que je ne peux pas faire du custom sur le model 100. Je cherche d'autres solutions.
Ma curiosité me pousse à tester un clavier ortholinéaire. Je vais voir si je craque.
Par contre, pour les amateurs de cherry blues, avez-vous trouvé des équivalents en plus silencieux ? Cela me manque 😭
C'est surtout une façon pour Next de dénigrer les assistants de code pour les faire passer pour des jouets servant uniquement au slop.
Je n'arrive pas à sentir de dénigrement de la part de Next.
Je trouve que c'est surtout le discours marketing des entreprises d'IA qui cible les PDGs et leur obsession : chercher à augmenter le profit, résumé basiquement en "faire plus de vente avec moins de personnel" donc, le discours va dire qu'un outil fait tout, tout seul, et super rapidement => le graal, voici mon argent !!!
C'est exactement ce que dit la vidéo ici. Le manager signal qu'il y a 2 tickets à s'occuper dans les 90 minutes (comme si le développeur ne faisait rien…). Le développeur a juste à dire à l'IA les deux soucis et tout est résolu immédiatement. Suite logique : à quoi a servi le développeur ? Corrolaire : générer du slop car ce n'est dit nulle part que le développeur va passer la plupart de son temps à lire la PR et tester pour s'assurer que ça fonctionne réellement si on utilise l'outil de cette manière.
Une fois ce constat posé, que pourrait faire un journaliste quand il retranscrit ce genre de communication ? Pour moi, il vaudrait mieux faire d'autres articles narrant les utilisations avec les échecs, les réussites, les effets sur le travail et le travailleur… Ce serait bien d'avoir également un article sur l'utilisation d'un outil se basant sur l'IA suivant le profil de l'utilisateur pour bien se rendre compte des différences potentielles.
Bon bah désolé mais je ne comprend toujours pas. Pas grave.
Si j'ai bien compris, le vibe coding est une façon de travailler spéciale. La personne décrit ce qu'elle souhaite et l'IA fait tout. Il ne "reste plus" qu'à réagir en fonction du travail produit. Basiquement, on peut se voir comme un PO qui donne les specs et l'IA joue le rôle des développeurs. Le PO regarde le résultat et dit que ce n'est pas ça qu'il voulait…
Cursor et les autres IDE basés sur l'IA permettent plus de souplesse d'utilisation. Par exemple, on peut l'imaginer en tant qu'assistant. Les règles du projet sont précisées dans des fichiers et l'IA peut être utilisé pour générer des alertes en cas de non-respect des règles, écrire des tests automatiques automatiquement… On peut le voir comme un développeur junior. En tant que sénior, tu as fait l'architecture du projet, mis la fonction/classe au bon endroit et tu lui dis ce qu'elle doit contenir dedans, à lui de bosser.
Ce ne sont que quelques exemples d'utilisations. Il doit y en avoir bien d'autres.
Perso j'ai passé ma mère sous Linux il y a plusieurs années, il a fallu un peu d'accompagnement bien sur, mais maintenant elle se plain beaucoup mois qu'avec Windows ! Ma distrib préférée c'est OpenSuse avec Xfce. Interface légère et simple, très bon support du matériel et panneau de configuration Yast facile à utiliser pour les débutants.
Merci pour ce retour d'expérience. Je ne connaissais pas du tout OpenSuse !
J'ai réussi à faire passer des proches sur Linux. Je confirme que le gros accompagnement se trouve plutôt dans la recherche d'alternatives logicielles avec les présentations.
J'ai essayé plusieurs distributions pour arriver à avoir des retours : - GlfOS : j'aimais sa mise à jour automatique et le fait que les personnes ne passent que par une boutique d'application. Mais ce n'est vraiment pas fait pour le vieux matériel. - ZorinOS : il est bien, quoiqu'un poil lourd. Son gros avantage est sa surcouche déjà paramétrée pour lancer des logiciels windows quand il n'y a pas d'alternatives (Irfanview ou un logiciel pour la photo 3D dans ce que j'ai rencontré). Par, j'ai rencontré quelques soucis de compatibilité matérielle. - Emmabuntus : Ça a été le choix préféré. Il est léger et c'est là où j'ai eu le moins de soucis de compatibilité. Les utilisateurs aiment bien l'interface (moi moins, mais les goûts et les couleurs…).
Par contre, pour passer une surface que Microsoft ne veut pas faire passer à W11 malgré la présence de la puce, c'est la galère. Il y a bien le projet linux-surface, mais j'ai des soucis pour paramétrer les caméras.
Je n'avais pas pensé à Mint avec Xfce. Je le garde dans un coin. Merci !
Il était aussi question de la gestion des dépendances nécessaires via un manifeste. Avec le proxy et plusieurs niveaux de stockage en local, il était alors possible de transformer l'application web en un logiciel local complet fonctionnel sans connexion avec tout un système de synchronisation et mise à jour automatique lors d'une connexion. Ce qui était très puissant. Le fait de ne plus s'encombrer avec l'affichage du navigateur autour de l'application devenait sympathique pour optimiser l'affichage.
Mais comme tout le monde se moque de charger plus de 10 Mo à chaque ouverture de page, personne ne veut s'embêter avec cette complexité. Et pour les applications locales, Électron a remplacé cette utopie. Il ne fait qu'ouvrir une application web dans un navigateur caché. Si le WPA existait réellement, les applications ne nécessitant pas d'API spécifiques à son besoin seraient juste une page web. C'est le cas de Spotify, Discord, office 365 où les applications installées n'apportent rien de plus à l apage web...
Sous Android, j'utilise déjà depuis quelque temps une option intitulée "Ajouter à l'écran d'accueil" (pour Next par exemple). Je croyais du coup que Mozilla ne voyait d'intérêt au PWA uniquement pour les smartphones.
Par rapport à ce que tu dis, ce ne serait pas du WPA ? Quelles en seraient les différences ? Je suis un peu perdu avec ton commentaire
Certaines libraries sont nécessaires dans certains projets (au hasard React et ses milliards de dépendances, ou encore discord.js si tu veux créer un bot discord) d'autres peuvent être recodée en 2secondes (is-number :'))
Dans tous les cas sur des projets qui embarquent beaucoup de dépendances (souvent le cas sur du React) ça peut vite devenir impossible de tout vérifier.
On peut cependant espérer que les gestionnaires de packets (ainsi que npm/pnpm/bun/deno...) fassent un minimum d'effort pour éviter des dingueries.
Tout à fait d'accord.
Après, j'ai l'impression que le web est plus sujet à être géré par des "bidouilleurs". Ils ne prennent même pas la peine de questionner les dépendances.
J'étais arrivé dans une équipe "fullstack" avec React sur un projet tout récent (3 mois). Ils avaient juste fait un copier-coller des dépendances sans réfléchir. Résultat, il y avait déjà une quarantaine de dépendances dont certaines avec des versions de plus de 3 ans. Et personne ne s'était posé de question. J'ai passé deux semaines pour tout vérifier, supprimer 3/4 des librairies car inutilisées et mis à jour le reste.
Il y a toute une culture à changer chez les développeurs et encore plus dans les technos webs qui sont maltraitées. Ce n'est pas normal de crouler sous les librairies sans pouvoir en expliquer l'utilité. Certains ne font pas que "pisser" du code en se cachant derrière le framework utilisé : "je suis obligé pour que ça fonctionne" 😥
Si tu es tout seul sur ton projet open source, ce n'est pas possible.
Après, vient tout le débat de la confiance en la personne et comment être certains que c'est bien elle. Pour Linux, M. Torvald vérifie les PRs avec son compte. Si son compte est piraté pour valider une PR vérolée, le résultat est vérolée. Dans ce cas là, nous sommes sauvé par la communauté de testeurs et le délai avant la distribution. Mais il faut qu'une personne compétente ait le temps de tomber dessus.
Pour les petites librairies, il n'y a ni les personnes, ni les compétences et c'est livré directement. Pour les développeurs les utilisant, on peut "retarder" le passage à la nouvelle version en espérant que quelqu'un d'autre essuie les plâtres. Mais si tout le monde fait ça, on revient à la problématique de base. On tombe actuellement sur la "solution magique" de l'IA vendue pour s'assurer que c'est bon...
On peut aussi se baser des librairies. Certaines encapsulaient des RegEx, donc, si on s'en aperçoit, on s'en passe. D'autres permettent d'éviter d'entrer dans certains contenus compliqués comme les dessins vectoriels...
En pas libre il y a Obsidian sinon. On peut éviter de payer les features de synchro via un Cloud personnel.
J'étais sur Joplin et je suis passé sur Obsidian car il respecte toute l'arborescence des dossiers créés. Cela permet d'avoir du markdown lisible partout au besoin et utilisable avec d'autres outils.
Si ça ne dérange pas, Joplin chiffre tout par défaut et il a permis les synchronisations par défaut. Pour Obsidian, il faut passer par un plugin pour une synchronisation vers un serveur webdev. J'utilise "Remotely Sync" si ça intéresse quelqu'un.
Je suis surpris de lire qu'Arc est abandonné sur cette news. Certes, c'est ce que le fondateur avait annoncé lors de l'annonce de Dia. Mais, lors de ce rachat, il y a deux éléments qui tendent à remettre Arc sur les rails : - Un mail a été envoyé aux personnes inscrites qui parle de l'amour du CEO d'Atlassian
__Arc and Arc Search will continue to exist; we'll share a long term plan soon.__ The Atlassian team loves Arc and has a Slack channel with 1 000+ Arc fans !
- Ils ont sorti un article sur leur blog indiquant qu'ils vont partager une roadmap long-terme d'Arc
Il faudra voir ce qu'ils réservent à Arc, car ils indiquent en même temps que Dia reste la priorité.
Le monsieur est très curieux des LLMs et de leur fonctionnement. Dans son cas, il trouve que le modèle s'est bien amélioré. Il arrive à sortir de très bons travaux avec un prompt beaucoup plus léger. Par contre, d'après ses tests, il y a une grosse différence de réponses pour le même texte qu'il impute beaucoup à l'aiguilleur. En ciblant le modèle le plus "puissant", ça va mieux même s'il reste des changements étranges.
De ce que j'ai compris, il y avait trop de disparité entre les numéros de versions des smartphones, Ipad et macs : 15.5 pour Mac, 18 pour Ios, 8 pour AppleTv… Tandis qu'il y a des fonctionnalités qui apparaissent sur toutes les plate-formes.
Du coup, ils ont annoncé tout passer sur le numéro de l'année suivant la date de sortie. Les nouvelles versions vont être ouvertes à tous durant l'automne 2025, donc le numéro est 26.
Pour Microsoft, on retrouve cette numérotation dans les mises à jour 24H2, 25H2… Ce devait être le cas avec Windows 10 qui avait été présenté comme le dernier OS à version avant de passer à des évolutions semestrielles. Mais ils ont pondu Windows 11
Et elle est représentative du monde du développement logiciel ?
Quand je vois les problèmes de fuites de mot de passe qu'elle a eu, j'ai un gros doute. Et j'ai aussi un gros doute sur le fait que l'IA pourrait résoudre ces problèmes.
Édit : je sais encore trouver une fiche Wikipédia.
Pour ma part, je trouve que c'est une illustration de l'évolution des mentalités dans le développement : ne plus "pisser du code" mais être capable de réfléchir.
Un moment, il fallait être capable de coder sans documentation. Après, on autorisait l'usage d'une documentation papier puis internet. Certains se sont mis à faire des entretiens en pseudo code pour voir si le dev maîtrise les concepts clés comme les designs patterns. Cette société utilise l'IA pour voir s'il réfléchit encore. Ça permet quand même de filtrer pour avoir uniquement ceux qui se trouvent à la pointe. Mais on risque de tomber dans le travers d'avoir celui qui fourni un résultat le plus rapidement.
Cela me fait penser à une conférence récente où il disait que le mieux est de trouver une personne humaine qui maîtrise les concepts et soit curieuse. L'IA est le sujet actuel pour voir la curiosité de la personne actuellement.
Il parle en effet de ces deux choses. Mais, contrairement à ce que tu sembles en retenir, j'aurais tendance à comprendre qu'il alerte sur l'absence de débat politique face à ce qui ressemble à un solutionnisme technologique. C'est plus un reproche de mettre les débats sous le tapis en le cachant par un calcul supposé objectif résolvant tout et la recherche d'optimisation.
Dans le cas de parcours sup, il est bien précisé que l'algo a été fait pour ordonner les élèves en limitant les égalités pour sélectionner les meilleurs tandis qu'on pourrait sélectionner autrement (choix politique) ;
prenez un pourcentage d’élèves comparable à la part d’entre eux qui candidatent chez vous
Pour la correction d'orthographe, j'utilise LanguageTool que j'ai plugué sur mes mails, sur le navigateur et à Obsidian. C'est très pratique. Je conseille !
Pour la recherche, je suis abonné à Kagi. J'utilise sa partie de recherche rapide IA quand je n'arrive pas à être précis dans mes recherches. Comme il filtre les sites, j'arrive à de bonnes choses.
Pour le boulot, en tant que développeur, on nous fait utiliser copilot. J'ai eu pas mal de soucis pour l'utiliser au début. Je n'étais absolument pas satisfait du code généré. Je le trouve très pourri pour le JS quand on veut bien coder. C'est d'une qualité de "scrip kiddies". Ce n'est clairement pas du JavaScript maintenable et optimisé. Par contre, je me suis mis à travailler différemment pour avoir de l'aide. Je fais une structure générale avec des premiers fichiers. Quand j'ai besoin d'un nouveau fichier, j'ouvre un déjá bien fait qui va servir de modèle. Je lui fait générer le squelette en écrivant le cartouche. Puis il m'aide ligne par ligne. J'ai pris pour habitude de commencer par la jsdoc pour déclarer les objets que je veux pour qu'il sache la matière et ça aide bien à avancer. Mais j'avance ligne par ligne. Il dévie déjà au bout de 5 lignes tout seul. Là où il m'aide le plus, c'est pour les tests unitaires. Comme j'ai fait la découpe avant pour avoir beaucoup de fonctions simples et "pures". Il edt très pertinent. Il me propose même les tests faisables et, en règle générale, je ne fais que relire.
Pour donner un ordre de grandeur sur le paquet de pourcent, j'avais lu une étude il y a 5-6 ans qui indiquait que la publicité représentait 40% de l'énergie dépensée sur le web.
Maintenant, je ne sais pas trop. Sur certains sites média, ça peut aller jusqu'à 70% source. Mais d'un autre côté, comme la lecture vidéo explose, peut-être que le pourcentage sur l'ensemble a diminué en proportion.
Pourquoi dis-tu que c'est rèservé à "Messages" de Google ? Textra ne pourrait pas implémenter RCS ? En tant qu'utilisateur Textra, j'attendais une mise à jour et ta remarque me rend triste si Google a le monopole sur ça 😔
La FE est moins chère pour commencer (en tout cas c'est généralement le cas). Ensuite, les puces sont les mêmes dans les deux cas, souvent la différence c'est surtout le fait que les autres constructeurs mettent les radiateurs et ventilateurs qui leur correspondent, avec leur propre caractéristiques.
Parfois les constructeurs font un peu mieux que Nvidia, mais la plupart des temps, et depuis la génération 3000, la FE est quand même aussi bonne voire meilleure.
Ceux qui n'ont pas de bon système de ventilation dans une tour pourront préférer la carte d'un constructeur avec plus de ventilateurs directement sur la carte par exemple.
J'amenderai la réponse pour cette nouvelle série. Il y aurait des soucis de gestion d'alimentation car NVidia ne garde qu'un shunt de mesure. Ce qui fait une moins bonne distribution de la puissance et, au moins pour la 5090 FE, des câbles fondent Voici la source qui en parle
Après, les cartes FE sont très compactes dans cette série. C'est possible de les rentrer dans des petits boîtiers maintenant. Je ne sais pas si les constructeurs vont s'aligner sur le format.
Pour une partie des usages sans doute, mais pas pour tout étant donné que le lithium reste l’élément qui permet la meilleure densité énergétique théorique du fait de sa taille / position dans le tableau périodique.
Pour compléter la réponse, les batteries au sodium ont des points forts différents : - très bon marché - se chargent plus rapidement - ont une capacité de recharge très supérieurs (d'une puissance 10 de mémoire)
Cela permettrait de faire de choisir le type de batterie en fonction des usages. Les batteries au sodium pour les outils sont déjà sortis car on va préférer le prix et le temps de recharge. Je pense qu'on peut y inclure les téléphone et tous les petits appareils électro-ménagerd (brosse à dent, ...). Certains parlent également des petites citadines. Ce qui permettra de baisser largement le prix pour les personnes ne faisant pas plus d'une centaine de kilomètres par charge et d'avoir une production locale assurée.
Je me permet de rajouter que nous parlons beaucoup de batterie mais même celles au lithium ont certaines contraintes dont le poids qui reste important. C'est embêtant pour les gros véhicules comme les poids lourds ou les engins agricoles. Ils auraient plus intérêt à avoir des moteurs à hydrogènes par exemple. Ceci permettrait de profiter des pics de production d'électricité ou de moins perdre d'énergie suivant le point de vue.
Bref, il faut garder en tête qu'il est important de sécuriser l'approvisionnement mais aussi de trouver un large éventail de solutions alternatives. Comme disait mon prof de bio, même si ça ne fait pas plaisir, il ne faut pas oublier que l'abstinence reste toujours la meilleurs solution
Ah, bien vu! C'est la présence de "avaient tenté de négocier" à la fin qui perturbe la compréhension de la phrase ; merci!
En ce qui concerne les raisons : non, ce n'est pas la volonté de récupérer les données sans payer ; la plupart des attaquants, aujourd'hui, non seulement exfiltrent d'abord et menacent de rendre public, et chiffrent les données ; évidemment, ils ne donnent la clé qu'après avoir reçu le paiement. Après, beaucoup d'attaquants, même après paiement, ne donnent pas la clé, ou bien celle-ci ne fonctionne pas (et on n'évoque même pas le fait qu'un attaquant, après avoir été payé, ne s'est pas engagé à se barrer du système d'information de la victime, et a donc la possibilité de revenir pour la faire payer à nouveau ; ben oui, elle a déjà payé une fois! Certains font même des discounts!).
A mon avis, les causes de ces paiements sont plutôt : méconnaissance de l'écosystème et des modes opératoires des attaquants (et donc naïveté de victimes qui pensent sincèrement recevoir la clé de déchiffrement), et inquiétude quant au caractère critique des données exfiltrées (qu'elles le soient réellement, ou qu'une publication des données exfiltrées et la médiatisation d'une telle cyberattaque seraient de nature à nuire tout particulièrement à la victime (contrat en cours? publication de données financières? etc.).
Après, il faut distinguer "paiement de la rançon" et "discussions avec l'attaquant" ; dans ce dernier cas, il peut tout à fait y avoir une volonté du défenseur de gagner du temps et de recueillir des informations, en faisant croire que l'on est prêt à payer. ;-)
Merci pour ces précisions ! J'avais tiqué sur l'expression "entreprendre des négociations" sans penser à la possibilité de gagner du temps pour recueillir des informations.
En voyant le pourcentage bas de la France par rapport aux autres (26% tout de même), j'ai l'impression que les campagnes de préventions — par l'ANSSI notamment — ont peut-être porté leurs fruits !
J'ai mis un peu de temps à comprendre ces chiffres. Il faut les mettre en lien avec le nombre de cyberattaques préparées dans le pays. Pas exemple, aux USA, sur les 1299 cyberattaques préparées, 495 cyberattaques ont mené à des négociations (soit 38%). Formulé autrement, 38% des victimes ciblées aux USA ont entrepris des négociations.
Pour rejoindre la remarque au-dessus, je trouve que cela fait beaucoup. Y a-t-il des raisons pour que les cibles continuent à vouloir négocier malgré les expériences identiques reportées par les autorités ? L'espoir de récupérer les données sans payer après le décryptage ?
De mémoire, ce monsieur a déjà indiqué une fois que son ennemi était le sommeil ou encore qu’il voulait concurrencer les dîners entre amis. Je n’ai pas les références exactes désolé mais cela signifie pour moi que son ambition profonde est que tout le monde passent leur temps uniquement à regarder Netflix. Maintenant on peut y ajouter jouer. Je suis égalemement curieux de voir quel peut être la suite pour attirer toujours plus de personne et les garder le plus longtemps possible.
Au niveau de la sortie de toute une série, j’ai des amis qui attendaient que quelques bonnes séries soient sorties pour s’abonner uniquement un mois et tout regarder. Si ce comportement est généralisable, c’est peut-être pour ça que Netflix ne s’embête pas à diffuser un nouvel épisode par semaine.
Ce système n’est pas spécifique à Microsoft. Beaucoup de blogs en parlent. Ils peuvent être mis en place sur des sites webs… Il y a différentes utilités.
La première est de pouvoir se rendre compte de l’impact d’une nouvelle fonctionnalité. Une partie des utilisateurs ont accès à la nouvelle fonctionnalité et le reste ne l’ont pas. Et on compare avec la bonne métrique. Par exemple, pour un site web, si on veut augmenter l’accès à une nouvelle page, nous avons l’ancien ratio nombre de vue de cette page par rapport au nombre de personnes ayant accédé au site et il suffit de faire ce ratio avec la nouvelle tentative. Si le ratio augmente, on peut mettre en place la nouvelle méthode, sinon on test autre chose.
La seconde est de pouvoir comparer simultanément plusieurs choix. S’il y a 3 possibilités, il y aura 3 groupes de test. Je me souviens d’un blog où Yahoo en parlait pour voir qu’elle était la meilleur couleur de font à utiliser. Ça parait ridicule comme sujet mais ils ont mis 3-4 mois de travail dessus.
Au niveau de l’échantillonnage, ce sont les mêmes règles statistiques. Il faut qu’il soit représentatif. Donc trouver un bon panel d’utilisateurs. Prendre un pourcentage d’utilisateurs piochés aléatoirement est une possibilité.
Attention, les métriques ne veulent pas dire que c’est bien ou pas. Par exemple les liens putaclics augmentent la visibilité mais c’est mauvais à long terme pour l’utilisateur. Et il faut bien choisir sa métrique. Dans le cas des onglets, je me demande quelles sont les métriques. Peut-être juste savoir si les onglets sont ouverts ? Mais là on remarque bien que cette métrique ne dit pas si l’utilisateur est content. Par exemple, si aucun onglet n’est ouvert, est-ce parce que le client n’en a pas besoin ou qu’il ne l’a pas vu ?
Il ne faut pas oublié que l’écoute de la musique n’est pas que de la technologie. On parle de plus en plus de psycho-acoustique. Pour certains, les rituels - sortir de vinyle, s’assoir dans un fauteuil confortable, être fier de son installation,… - jouent sur la sensation d’écoute. C’est pour ça qu’il est très difficile de parler de ces expériences d’écoute.
Au niveau du matériel et de la qualité, j’ai remarqué que les premiers apports d’une meilleure qualité de fichiers audio et de matériel sont une diminution de la fatigue. Après, les différences remarquées par son oreil dépend de l’entraînement. Au début on n’entend presque pas de différence et à force d’écoutes sur du bon matériel avec de bons enregistrements, il suffit de peu de temps d’écoute pour entendre les défauts de fichiers mp3 ou du matériel audio premier prix.
Après, pour le choix du matériel, j’aime bien la petite phrase à ce sujet. Je trouve vraiment que c’est un cheminement personnel par rapport à ses goûts, l’entrainement de son oreille, les discussions et la chance !
Rectification par rapport à mon commentaire précédent : plutôt intéressant et équilibré
Oui, j’ai eu le même réflexe que toi avec l’exemple sur Harry Potter et sa grande baguette magique. C’est vraiment très racoleur Je pense qu’ils partent vraiment du principe que quand un adolescent a envie d’accéder à quelque chose de culturel, il va immédiatement aller sur des sites illégaux de streaming ou de download. Mis à part ça, les reportages d’Arte me semblent toujours parti d’une idée très putaclic avec l’introduction qui tend vers ça pour après modérer les propos. C’est assez bizarre comme façon de faire aux premiers visionnages.
Il y a eu un reportage il y a peu de temps (je tenterai de vous retrouver le lien) sur l’apprentissage/discussions autour de la sexualité avec les ados dans les lycées : la majorité des jeunes expliquait que les pornos leur servaient de “mode d’emploi” est que sans ça il ne saurait pas informés de ce que sont les différentes pratiques (pour ne pas citer les termes du Kamasutra).
Tu veux parler du reportage Les ados et le sexe sur arte ? Ce passage m’a en effet fait tiquer.
Avec Chocolatey, j’avais eu des soucis de conflit entre la mise à jour automatique de Firefox et la mise à jour via chocolatey. Si firefox faisait la mise à jour avant chocolatey, ce dernier ne détectait pas la nouvelle version. Est-c quee winget a le même genre de problèmes ?
OK pour utiliser le filon de la poule aux œufs d’or tant que ça marche aujourd’hui. Mais quelle garantie peut avoir le consommateur que la société ne va pas revendre les données accumulées le jour ou le marché sera différent? Si dans 30ans, 30ans de conso valent + qu’un i-toy, la société saura s’adapter ?
Effectivement, c’est extrêmement dur de parier sur la manière dont vivra une entreprise dans 30 ans. Je pense néanmoins que changer autant de fonctionnement est très difficile pour une si grosse boîte.
Je pense par exemple à Microsoft qui a essayé de diversifié en mettant de la pub dans outlook, récupérer plus d’informations dans Windows,… Ils ont dû faire machine arrière car les professionnels ne leur faisait plus confiance.
Un autre cas emblématique est Google qui, malgré toutes sa puissance financière n’arrive pas à trouver une autre ressource stable que leur moteur de recherche avec la publicité. YouTube a été une exception, mais c’est un logiciel qui a été racheté.
Pour revenir aux données d’Apple, à ma connaissance, le seul point embêtant auxquels ils peuvent accéder est le contenu d’ICloud. Tout le reste a été étudié pour que ça fonctionne avec leur puce sécurisée incassable pour le moment même pour eux (voir toutes les tentatives de justice américaines pour y accéder et la difficulté des entreprises spécialisée). Pour ICloud d’ailleurs, je pensais qu’ils avaient tout changer pour éviter qu’une cour de justice leur demande l’accès aux données serveur. Ça n’a jamais été fait et ils ont encore la clé maître ?
C’est sûr que ne rien donner aux entreprises est le moyen le plus sûr d’éviter leur exploitation. Mais il faut y inclure également les logiciels open source car rien ne dit qu’une entité malveillant n’y a pas glisser un bout de code pour accéder à toutes les données, comme le dit jpaul
Au niveau des technos web, c’est fréquent qu’un acteur développe une solution a un problème puis le propose au W3C. Le Manifest, une des possibilités techniques à la base pour les PWA a par exemple était mis en place dans Chrome. Ça semblait une bonne idée mais l’expérience a montré qu’il y a des soucis techniques insolubles de cette manière. Donc la proposition a été abandonné en cours d’écriture. Les différentes intégrations dans les navigateurs permettent de tester les cas réels pour faire évoluer la spécification. Par exemple le système de grille en CSS a eu 3 implémentation différentes qui ont cohabité avant sa version finale. C’est un vrai casse tête pour les développeurs webs…
Le business model d’Apple est la vente d’une expérience unifiée et sûre pour l’utilisateur. Je l’imagine mal se tirer une balle dans le pied pour faire un petit plus d’argent avec la pub. Par contre, ils ont dû être content de leur trouvaille pour gêner les concurrents en appuyant au bon endroit 😅
J’ai du mal à comprendre le chapitre sur la portabilité. À le lire, j’ai l’impression qu’un chiffre bas de portabilité est un mauvais signal. Ai-je mal compris ? Personnellement, j’aurais dit que c’est le signe que les opérateurs veulent garder leurs clients plutôt que se battre pour récupérer ceux des autres à coup de grosses réductions juste la première puis une multiplication des prix par 2. Je passais mon temps à changer jusqu’à ce que le dernier opérateur m’annonce à chaque fin d’année que je garde le même montant d’abonnement.
Pour plus de praticité sur mobile, serait-il possible d’ajouter en bas de l’article un petit lien vers l’article précédent et l’article suivant pour gagner du temps ? Sur grand écran, je me sers de la colonne de droite pour passer d’articles en articles mais ce n’est pas possible sur mobile. Avec une mauvaise connexion mobile, le chargement de la page d’accueil est longue : ça oscille entre 3 et 12 secondes pour moi :‘(
C’est dommage de lire toujours les mêmes remarques concernant Atom et son manque d’autonomie supposée… Cela n’est absolument pas vrai. L’exemple le plus récent est l’acer iconia w510 qui tient 9 h et 18h avec le clavier branché (en véritable condition) et qui lui permet d’être actuellement la tablette la plus endurante !
Après vient le problème de la puissance. Il est évident que la puissance n’est pas comparable à la famille des i3/i5/i7 mais elle surpasse les tegra 3 (par contre, je n’ai pas vu de comparaisons avec les derniers processeurs de qualcom et de Samsung " />)
Maintenant comparons avec la concurrence.
VS Ipad mini 32Go à 439€ : la puissance est à peu près la même (meilleure CPU mais moins bon GPU), la capacité est doublée, la résolution est plus grande et des connecteurs apparaissent (USB2, microSDHC et HDMI). Au niveau de la richesse des stores, Apple gagne mais ceci est sans compter la richesse logicielle de Windows x86 !
VS Galaxy 8.0” : la grande différence tient pour moi à l’ajout d’une prise HDMI pour le Acer tandis que le Samsung permet de prendre des notes avec un stylo intégré (le choix se pose)
Dans les 2 cas, la tablette sous w8 semble moins cher (en partant du principe 1$ = 1€, elle couterait 20€ de moins que la Samsung et 50€ de moins que l’Ipad)
Ensuite vient la préférence du système d’exploitation avec le choix entre IOS, Androïd et W8 avec son interface UI. Là les goûts et les couleurs … " />
Quand il faut comparer à des pcs. L’atom ne peut pas tenir en puissance brute face à la famille des i3/i5/i7 mais en autonomie elle les explose ! Le choix se pose mais le porte-monnaie risque de parler. Pour avoir des machines avec des cores i, la gamme des prix n’est plus du tout la même (en tablette, je ne vois de suite que la surface pro qui vaut 1000 € " />).
Pour avoir eu la possibilité de tester l’Acer Iconia w510, j’ai trouvé que l’utilisation normale (bureautique, internet - sans avoir 10 onglets ouverts en même temps -, visionnage de films en mkv) est agréable. Par contre pour faire des traitements lourds comme Photoshop, il faut s’armer de patiences au lancement des logiciels puis pour faire des traitements.
Du coup je trouve que c’est un bon produit avec un excellent rapport qualité/prix et qui peut convenir à un large public non spécialiste.
Pour terminer, la sortie des nouveaux processeurs atom va permettre à Intel de faire un grand bon (passage de 2 à 4 coeurs et d’une gravure de 32nm à 22nm). Apparemment, la sortie serait pour fin 2013. Est-il utile d’investir maintenant ou d’attendre 6 mois de plus ? Cette question se pose tout le temps en informatique " />
Par contre, je ne vois pas l’impact réelle de la cotation boursière sur la vie d’une entreprise. En effet, d’après ce que j’en sais, la valeur boursière est utile pour l’entreprise quand elle veut faire une levée de fond via la création d’actions. Hors Apple a suffisamment d’argent de côté pour ne faire aucune levée de fond. " />
Quelqu’un aurait une explication ? " />
Je suis tout à fait d’accord avec l’édito pour dire qu’une révolution ne peut pas se faire tous les 6 mois ! Je pense qu’on verra les véritables compétences de Tim Cook et de Steve Ballmer sur leur capacité à trouver la prochaine révolution (comme la convergence technologique tant rêvée). Jusque là, c’est dur de les critiquer en sachant qu’ils font augmenter le chiffre d’affaire de leur entreprise " />
40 commentaires
Le 07/01/2026 à 19h15
Je suis surpris que certains semblent changer autant de claviers. Comment les tuez-vous aussi vite ? C'est une touche qui claque en particulier ?
Pour ma part, j'avais commencé mon expérience du clavier mécanique avec un Razer Blackwidow en cherry blue.
J'adore la sensation de frappe et le clavier est intuable. Mais cela provoque des envies de violences de la part des autres personnes en open space...
J'ai dû me résoudre à passer à autre chose.
J'ai pris un corsair K65 LUX RGB en cherry red. J'utilise le rétroéclairage qu'en blanc. J'aime bien le format plus réduit, mais je ne suis pas fan des cherry red. Je préfère effleurer les touches jusqu'au déclenchement réel.
Je le garde pour le boulot.
J'ai tenté aussi les claviers ergonomiques.
J'ai un Model 100 de chez keyboard.io
C'est vraiment très agréable à utiliser. J'aime le principe de changer les cherry à l'envie. C'est plus durable en plus. J'ai pris des marrons. Ça ne vaut pas encore les bleus à mon goût.
En tant que développeur qui écrit pas mal et qui aime les claviers réduits, ma vie a changé quand un pote m'a fait découvrir le ergo-l.
C'est super bien fichu une fois qu'on s'y est fait.
Du coup, j'ai cherché comment avoir les touches marquées pour les autres.
J'ai trouvé des sites qui permettent de faire des touches customisées et d'autres sites pour mettre des autocollants pour les portables.
Je suis en train de tester tout ça !
Mon souci est que je ne peux pas faire du custom sur le model 100. Je cherche d'autres solutions.
Ma curiosité me pousse à tester un clavier ortholinéaire. Je vais voir si je craque.
Par contre, pour les amateurs de cherry blues, avez-vous trouvé des équivalents en plus silencieux ?
Cela me manque 😭
Le 22/10/2025 à 21h27
Je trouve que c'est surtout le discours marketing des entreprises d'IA qui cible les PDGs et leur obsession :
chercher à augmenter le profit, résumé basiquement en "faire plus de vente avec moins de personnel"
donc, le discours va dire qu'un outil fait tout, tout seul, et super rapidement => le graal, voici mon argent !!!
C'est exactement ce que dit la vidéo ici.
Le manager signal qu'il y a 2 tickets à s'occuper dans les 90 minutes (comme si le développeur ne faisait rien…).
Le développeur a juste à dire à l'IA les deux soucis et tout est résolu immédiatement.
Suite logique : à quoi a servi le développeur ?
Corrolaire : générer du slop car ce n'est dit nulle part que le développeur va passer la plupart de son temps à lire la PR et tester pour s'assurer que ça fonctionne réellement si on utilise l'outil de cette manière.
Une fois ce constat posé, que pourrait faire un journaliste quand il retranscrit ce genre de communication ?
Pour moi, il vaudrait mieux faire d'autres articles narrant les utilisations avec les échecs, les réussites, les effets sur le travail et le travailleur…
Ce serait bien d'avoir également un article sur l'utilisation d'un outil se basant sur l'IA suivant le profil de l'utilisateur pour bien se rendre compte des différences potentielles.
Le 22/10/2025 à 14h32
Cursor et les autres IDE basés sur l'IA permettent plus de souplesse d'utilisation.
Par exemple, on peut l'imaginer en tant qu'assistant. Les règles du projet sont précisées dans des fichiers et l'IA peut être utilisé pour générer des alertes en cas de non-respect des règles, écrire des tests automatiques automatiquement…
On peut le voir comme un développeur junior. En tant que sénior, tu as fait l'architecture du projet, mis la fonction/classe au bon endroit et tu lui dis ce qu'elle doit contenir dedans, à lui de bosser.
Ce ne sont que quelques exemples d'utilisations. Il doit y en avoir bien d'autres.
Le 15/10/2025 à 14h39
Le 15/10/2025 à 10h06
Je confirme que le gros accompagnement se trouve plutôt dans la recherche d'alternatives logicielles avec les présentations.
J'ai essayé plusieurs distributions pour arriver à avoir des retours :
- GlfOS : j'aimais sa mise à jour automatique et le fait que les personnes ne passent que par une boutique d'application. Mais ce n'est vraiment pas fait pour le vieux matériel.
- ZorinOS : il est bien, quoiqu'un poil lourd. Son gros avantage est sa surcouche déjà paramétrée pour lancer des logiciels windows quand il n'y a pas d'alternatives (Irfanview ou un logiciel pour la photo 3D dans ce que j'ai rencontré). Par, j'ai rencontré quelques soucis de compatibilité matérielle.
- Emmabuntus : Ça a été le choix préféré. Il est léger et c'est là où j'ai eu le moins de soucis de compatibilité. Les utilisateurs aiment bien l'interface (moi moins, mais les goûts et les couleurs…).
Par contre, pour passer une surface que Microsoft ne veut pas faire passer à W11 malgré la présence de la puce, c'est la galère. Il y a bien le projet linux-surface, mais j'ai des soucis pour paramétrer les caméras.
Je n'avais pas pensé à Mint avec Xfce.
Je le garde dans un coin. Merci !
Le 17/09/2025 à 17h40
Le fait de ne plus s'encombrer avec l'affichage du navigateur autour de l'application devenait sympathique pour optimiser l'affichage.
Mais comme tout le monde se moque de charger plus de 10 Mo à chaque ouverture de page, personne ne veut s'embêter avec cette complexité.
Et pour les applications locales, Électron a remplacé cette utopie. Il ne fait qu'ouvrir une application web dans un navigateur caché. Si le WPA existait réellement, les applications ne nécessitant pas d'API spécifiques à son besoin seraient juste une page web. C'est le cas de Spotify, Discord, office 365 où les applications installées n'apportent rien de plus à l apage web...
Le 17/09/2025 à 17h30
Je croyais du coup que Mozilla ne voyait d'intérêt au PWA uniquement pour les smartphones.
Par rapport à ce que tu dis, ce ne serait pas du WPA ? Quelles en seraient les différences ?
Je suis un peu perdu avec ton commentaire
Le 13/09/2025 à 15h14
Après, j'ai l'impression que le web est plus sujet à être géré par des "bidouilleurs". Ils ne prennent même pas la peine de questionner les dépendances.
J'étais arrivé dans une équipe "fullstack" avec React sur un projet tout récent (3 mois).
Ils avaient juste fait un copier-coller des dépendances sans réfléchir. Résultat, il y avait déjà une quarantaine de dépendances dont certaines avec des versions de plus de 3 ans. Et personne ne s'était posé de question. J'ai passé deux semaines pour tout vérifier, supprimer 3/4 des librairies car inutilisées et mis à jour le reste.
Il y a toute une culture à changer chez les développeurs et encore plus dans les technos webs qui sont maltraitées.
Ce n'est pas normal de crouler sous les librairies sans pouvoir en expliquer l'utilité.
Certains ne font pas que "pisser" du code en se cachant derrière le framework utilisé : "je suis obligé pour que ça fonctionne" 😥
Le 13/09/2025 à 13h38
Après, vient tout le débat de la confiance en la personne et comment être certains que c'est bien elle.
Pour Linux, M. Torvald vérifie les PRs avec son compte. Si son compte est piraté pour valider une PR vérolée, le résultat est vérolée.
Dans ce cas là, nous sommes sauvé par la communauté de testeurs et le délai avant la distribution. Mais il faut qu'une personne compétente ait le temps de tomber dessus.
Pour les petites librairies, il n'y a ni les personnes, ni les compétences et c'est livré directement.
Pour les développeurs les utilisant, on peut "retarder" le passage à la nouvelle version en espérant que quelqu'un d'autre essuie les plâtres. Mais si tout le monde fait ça, on revient à la problématique de base.
On tombe actuellement sur la "solution magique" de l'IA vendue pour s'assurer que c'est bon...
On peut aussi se baser des librairies. Certaines encapsulaient des RegEx, donc, si on s'en aperçoit, on s'en passe. D'autres permettent d'éviter d'entrer dans certains contenus compliqués comme les dessins vectoriels...
Le 12/09/2025 à 17h03
Si ça ne dérange pas, Joplin chiffre tout par défaut et il a permis les synchronisations par défaut.
Pour Obsidian, il faut passer par un plugin pour une synchronisation vers un serveur webdev. J'utilise "Remotely Sync" si ça intéresse quelqu'un.
Le 05/09/2025 à 10h03
Certes, c'est ce que le fondateur avait annoncé lors de l'annonce de Dia.
Mais, lors de ce rachat, il y a deux éléments qui tendent à remettre Arc sur les rails :
- Un mail a été envoyé aux personnes inscrites qui parle de l'amour du CEO d'Atlassian- Ils ont sorti un article sur leur blog indiquant qu'ils vont partager une roadmap long-terme d'Arc
Il faudra voir ce qu'ils réservent à Arc, car ils indiquent en même temps que Dia reste la priorité.
Le 12/08/2025 à 14h04
Par contre, en lisant sur le sujet, je suis tombé sur une critique pour GPT-5.
Le monsieur est très curieux des LLMs et de leur fonctionnement.
Dans son cas, il trouve que le modèle s'est bien amélioré. Il arrive à sortir de très bons travaux avec un prompt beaucoup plus léger.
Par contre, d'après ses tests, il y a une grosse différence de réponses pour le même texte qu'il impute beaucoup à l'aiguilleur. En ciblant le modèle le plus "puissant", ça va mieux même s'il reste des changements étranges.
Le 25/07/2025 à 11h45
Tandis qu'il y a des fonctionnalités qui apparaissent sur toutes les plate-formes.
Du coup, ils ont annoncé tout passer sur le numéro de l'année suivant la date de sortie.
Les nouvelles versions vont être ouvertes à tous durant l'automne 2025, donc le numéro est 26.
Pour Microsoft, on retrouve cette numérotation dans les mises à jour 24H2, 25H2…
Ce devait être le cas avec Windows 10 qui avait été présenté comme le dernier OS à version avant de passer à des évolutions semestrielles. Mais ils ont pondu Windows 11
Le 12/06/2025 à 15h58
Un moment, il fallait être capable de coder sans documentation.
Après, on autorisait l'usage d'une documentation papier puis internet.
Certains se sont mis à faire des entretiens en pseudo code pour voir si le dev maîtrise les concepts clés comme les designs patterns.
Cette société utilise l'IA pour voir s'il réfléchit encore. Ça permet quand même de filtrer pour avoir uniquement ceux qui se trouvent à la pointe. Mais on risque de tomber dans le travers d'avoir celui qui fourni un résultat le plus rapidement.
Cela me fait penser à une conférence récente où il disait que le mieux est de trouver une personne humaine qui maîtrise les concepts et soit curieuse. L'IA est le sujet actuel pour voir la curiosité de la personne actuellement.
Le 03/04/2025 à 15h45
Le 03/04/2025 à 10h20
Mais, contrairement à ce que tu sembles en retenir, j'aurais tendance à comprendre qu'il alerte sur l'absence de débat politique face à ce qui ressemble à un solutionnisme technologique.
C'est plus un reproche de mettre les débats sous le tapis en le cachant par un calcul supposé objectif résolvant tout et la recherche d'optimisation.
Dans le cas de parcours sup, il est bien précisé que l'algo a été fait pour ordonner les élèves en limitant les égalités pour sélectionner les meilleurs tandis qu'on pourrait sélectionner autrement (choix politique) ;
Le 25/03/2025 à 08h23
Pour ma part, je préfère cibler les utilisations.
Pour la correction d'orthographe, j'utilise LanguageTool que j'ai plugué sur mes mails, sur le navigateur et à Obsidian.
C'est très pratique. Je conseille !
Pour la recherche, je suis abonné à Kagi.
J'utilise sa partie de recherche rapide IA quand je n'arrive pas à être précis dans mes recherches. Comme il filtre les sites, j'arrive à de bonnes choses.
Pour le boulot, en tant que développeur, on nous fait utiliser copilot.
J'ai eu pas mal de soucis pour l'utiliser au début. Je n'étais absolument pas satisfait du code généré. Je le trouve très pourri pour le JS quand on veut bien coder. C'est d'une qualité de "scrip kiddies". Ce n'est clairement pas du JavaScript maintenable et optimisé.
Par contre, je me suis mis à travailler différemment pour avoir de l'aide.
Je fais une structure générale avec des premiers fichiers. Quand j'ai besoin d'un nouveau fichier, j'ouvre un déjá bien fait qui va servir de modèle. Je lui fait générer le squelette en écrivant le cartouche.
Puis il m'aide ligne par ligne. J'ai pris pour habitude de commencer par la jsdoc pour déclarer les objets que je veux pour qu'il sache la matière et ça aide bien à avancer. Mais j'avance ligne par ligne. Il dévie déjà au bout de 5 lignes tout seul.
Là où il m'aide le plus, c'est pour les tests unitaires. Comme j'ai fait la découpe avant pour avoir beaucoup de fonctions simples et "pures". Il edt très pertinent. Il me propose même les tests faisables et, en règle générale, je ne fais que relire.
Modifié le 12/03/2025 à 14h39
Maintenant, je ne sais pas trop.
Sur certains sites média, ça peut aller jusqu'à 70% source.
Mais d'un autre côté, comme la lecture vidéo explose, peut-être que le pourcentage sur l'ensemble a diminué en proportion.
Le 04/03/2025 à 16h48
Textra ne pourrait pas implémenter RCS ?
En tant qu'utilisateur Textra, j'attendais une mise à jour et ta remarque me rend triste si Google a le monopole sur ça 😔
Le 14/02/2025 à 13h38
Il y aurait des soucis de gestion d'alimentation car NVidia ne garde qu'un shunt de mesure.
Ce qui fait une moins bonne distribution de la puissance et, au moins pour la 5090 FE, des câbles fondent
Voici la source qui en parle
Après, les cartes FE sont très compactes dans cette série. C'est possible de les rentrer dans des petits boîtiers maintenant.
Je ne sais pas si les constructeurs vont s'aligner sur le format.
Le 30/05/2024 à 13h00
Ce serait beaucoup moins polluant et plus stable d'après moi.
Le 29/05/2024 à 22h31
- très bon marché
- se chargent plus rapidement
- ont une capacité de recharge très supérieurs (d'une puissance 10 de mémoire)
Cela permettrait de faire de choisir le type de batterie en fonction des usages.
Les batteries au sodium pour les outils sont déjà sortis car on va préférer le prix et le temps de recharge.
Je pense qu'on peut y inclure les téléphone et tous les petits appareils électro-ménagerd (brosse à dent, ...).
Certains parlent également des petites citadines. Ce qui permettra de baisser largement le prix pour les personnes ne faisant pas plus d'une centaine de kilomètres par charge et d'avoir une production locale assurée.
Je me permet de rajouter que nous parlons beaucoup de batterie mais même celles au lithium ont certaines contraintes dont le poids qui reste important.
C'est embêtant pour les gros véhicules comme les poids lourds ou les engins agricoles. Ils auraient plus intérêt à avoir des moteurs à hydrogènes par exemple. Ceci permettrait de profiter des pics de production d'électricité ou de moins perdre d'énergie suivant le point de vue.
Bref, il faut garder en tête qu'il est important de sécuriser l'approvisionnement mais aussi de trouver un large éventail de solutions alternatives.
Comme disait mon prof de bio, même si ça ne fait pas plaisir, il ne faut pas oublier que l'abstinence reste toujours la meilleurs solution
Le 13/05/2024 à 23h20
J'avais tiqué sur l'expression "entreprendre des négociations" sans penser à la possibilité de gagner du temps pour recueillir des informations.
En voyant le pourcentage bas de la France par rapport aux autres (26% tout de même), j'ai l'impression que les campagnes de préventions — par l'ANSSI notamment — ont peut-être porté leurs fruits !
Le 12/05/2024 à 20h59
Pas exemple, aux USA, sur les 1299 cyberattaques préparées, 495 cyberattaques ont mené à des négociations (soit 38%). Formulé autrement, 38% des victimes ciblées aux USA ont entrepris des négociations.
Pour rejoindre la remarque au-dessus, je trouve que cela fait beaucoup.
Y a-t-il des raisons pour que les cibles continuent à vouloir négocier malgré les expériences identiques reportées par les autorités ? L'espoir de récupérer les données sans payer après le décryptage ?
Le 15/04/2023 à 12h54
Si j’ai bien tout compris, Netflix propose d’installer ses serveurs de cache aux opérateurs partenaires. En France, il y a Orange, Bouygues et SFR.
Ceci doit expliquer le chiffre de Netflix.
Je l’ai fait de mémoire. J’ai trouvé ce lien pour valider ce que j’avais retenu mais je ne sais pas trop ce que vaut ce forum
https://lafibre.info/orange-les-news/cache-netflix-en-regions-chez-orange/24/
Le 30/12/2022 à 23h10
De mémoire, ce monsieur a déjà indiqué une fois que son ennemi était le sommeil ou encore qu’il voulait concurrencer les dîners entre amis.
Je n’ai pas les références exactes désolé mais cela signifie pour moi que son ambition profonde est que tout le monde passent leur temps uniquement à regarder Netflix. Maintenant on peut y ajouter jouer.
Je suis égalemement curieux de voir quel peut être la suite pour attirer toujours plus de personne et les garder le plus longtemps possible.
Au niveau de la sortie de toute une série, j’ai des amis qui attendaient que quelques bonnes séries soient sorties pour s’abonner uniquement un mois et tout regarder. Si ce comportement est généralisable, c’est peut-être pour ça que Netflix ne s’embête pas à diffuser un nouvel épisode par semaine.
Le 26/07/2022 à 08h33
Ce système n’est pas spécifique à Microsoft. Beaucoup de blogs en parlent. Ils peuvent être mis en place sur des sites webs…
Il y a différentes utilités.
La première est de pouvoir se rendre compte de l’impact d’une nouvelle fonctionnalité. Une partie des utilisateurs ont accès à la nouvelle fonctionnalité et le reste ne l’ont pas. Et on compare avec la bonne métrique.
Par exemple, pour un site web, si on veut augmenter l’accès à une nouvelle page, nous avons l’ancien ratio nombre de vue de cette page par rapport au nombre de personnes ayant accédé au site et il suffit de faire ce ratio avec la nouvelle tentative. Si le ratio augmente, on peut mettre en place la nouvelle méthode, sinon on test autre chose.
La seconde est de pouvoir comparer simultanément plusieurs choix. S’il y a 3 possibilités, il y aura 3 groupes de test. Je me souviens d’un blog où Yahoo en parlait pour voir qu’elle était la meilleur couleur de font à utiliser. Ça parait ridicule comme sujet mais ils ont mis 3-4 mois de travail dessus.
Au niveau de l’échantillonnage, ce sont les mêmes règles statistiques. Il faut qu’il soit représentatif. Donc trouver un bon panel d’utilisateurs. Prendre un pourcentage d’utilisateurs piochés aléatoirement est une possibilité.
Attention, les métriques ne veulent pas dire que c’est bien ou pas. Par exemple les liens putaclics augmentent la visibilité mais c’est mauvais à long terme pour l’utilisateur.
Et il faut bien choisir sa métrique. Dans le cas des onglets, je me demande quelles sont les métriques. Peut-être juste savoir si les onglets sont ouverts ? Mais là on remarque bien que cette métrique ne dit pas si l’utilisateur est content. Par exemple, si aucun onglet n’est ouvert, est-ce parce que le client n’en a pas besoin ou qu’il ne l’a pas vu ?
Le 05/04/2022 à 09h42
Il ne faut pas oublié que l’écoute de la musique n’est pas que de la technologie. On parle de plus en plus de psycho-acoustique.
Pour certains, les rituels - sortir de vinyle, s’assoir dans un fauteuil confortable, être fier de son installation,… - jouent sur la sensation d’écoute. C’est pour ça qu’il est très difficile de parler de ces expériences d’écoute.
Au niveau du matériel et de la qualité, j’ai remarqué que les premiers apports d’une meilleure qualité de fichiers audio et de matériel sont une diminution de la fatigue.
Après, les différences remarquées par son oreil dépend de l’entraînement. Au début on n’entend presque pas de différence et à force d’écoutes sur du bon matériel avec de bons enregistrements, il suffit de peu de temps d’écoute pour entendre les défauts de fichiers mp3 ou du matériel audio premier prix.
Après, pour le choix du matériel, j’aime bien la petite phrase à ce sujet. Je trouve vraiment que c’est un cheminement personnel par rapport à ses goûts, l’entrainement de son oreille, les discussions et la chance !
Le 05/01/2022 à 16h27
Oui, j’ai eu le même réflexe que toi avec l’exemple sur Harry Potter et sa grande baguette magique. C’est vraiment très racoleur
Je pense qu’ils partent vraiment du principe que quand un adolescent a envie d’accéder à quelque chose de culturel, il va immédiatement aller sur des sites illégaux de streaming ou de download.
Mis à part ça, les reportages d’Arte me semblent toujours parti d’une idée très putaclic avec l’introduction qui tend vers ça pour après modérer les propos. C’est assez bizarre comme façon de faire aux premiers visionnages.
Le 05/01/2022 à 13h51
Tu veux parler du reportage Les ados et le sexe sur arte ?
Ce passage m’a en effet fait tiquer.
Le 16/09/2021 à 11h17
C’est une super idée !
Le 16/09/2021 à 11h16
Avec Chocolatey, j’avais eu des soucis de conflit entre la mise à jour automatique de Firefox et la mise à jour via chocolatey. Si firefox faisait la mise à jour avant chocolatey, ce dernier ne détectait pas la nouvelle version.
Est-c quee winget a le même genre de problèmes ?
Le 13/09/2021 à 09h24
C’est sympa d’organiser ce genre de concours !
Le 07/02/2021 à 08h48
Effectivement, c’est extrêmement dur de parier sur la manière dont vivra une entreprise dans 30 ans.
Je pense néanmoins que changer autant de fonctionnement est très difficile pour une si grosse boîte.
Je pense par exemple à Microsoft qui a essayé de diversifié en mettant de la pub dans outlook, récupérer plus d’informations dans Windows,… Ils ont dû faire machine arrière car les professionnels ne leur faisait plus confiance.
Un autre cas emblématique est Google qui, malgré toutes sa puissance financière n’arrive pas à trouver une autre ressource stable que leur moteur de recherche avec la publicité. YouTube a été une exception, mais c’est un logiciel qui a été racheté.
Pour revenir aux données d’Apple, à ma connaissance, le seul point embêtant auxquels ils peuvent accéder est le contenu d’ICloud. Tout le reste a été étudié pour que ça fonctionne avec leur puce sécurisée incassable pour le moment même pour eux (voir toutes les tentatives de justice américaines pour y accéder et la difficulté des entreprises spécialisée).
Pour ICloud d’ailleurs, je pensais qu’ils avaient tout changer pour éviter qu’une cour de justice leur demande l’accès aux données serveur. Ça n’a jamais été fait et ils ont encore la clé maître ?
C’est sûr que ne rien donner aux entreprises est le moyen le plus sûr d’éviter leur exploitation.
Mais il faut y inclure également les logiciels open source car rien ne dit qu’une entité malveillant n’y a pas glisser un bout de code pour accéder à toutes les données, comme le dit jpaul
Le 06/02/2021 à 19h35
Au niveau des technos web, c’est fréquent qu’un acteur développe une solution a un problème puis le propose au W3C.
Le Manifest, une des possibilités techniques à la base pour les PWA a par exemple était mis en place dans Chrome. Ça semblait une bonne idée mais l’expérience a montré qu’il y a des soucis techniques insolubles de cette manière. Donc la proposition a été abandonné en cours d’écriture.
Les différentes intégrations dans les navigateurs permettent de tester les cas réels pour faire évoluer la spécification. Par exemple le système de grille en CSS a eu 3 implémentation différentes qui ont cohabité avant sa version finale. C’est un vrai casse tête pour les développeurs webs…
Le business model d’Apple est la vente d’une expérience unifiée et sûre pour l’utilisateur. Je l’imagine mal se tirer une balle dans le pied pour faire un petit plus d’argent avec la pub.
Par contre, ils ont dû être content de leur trouvaille pour gêner les concurrents en appuyant au bon endroit 😅
Le 07/11/2020 à 09h43
J’ai du mal à comprendre le chapitre sur la portabilité. À le lire, j’ai l’impression qu’un chiffre bas de portabilité est un mauvais signal.
Ai-je mal compris ?
Personnellement, j’aurais dit que c’est le signe que les opérateurs veulent garder leurs clients plutôt que se battre pour récupérer ceux des autres à coup de grosses réductions juste la première puis une multiplication des prix par 2.
Je passais mon temps à changer jusqu’à ce que le dernier opérateur m’annonce à chaque fin d’année que je garde le même montant d’abonnement.
Le 26/09/2020 à 09h47
Pour plus de praticité sur mobile, serait-il possible d’ajouter en bas de l’article un petit lien vers l’article précédent et l’article suivant pour gagner du temps ?
Sur grand écran, je me sers de la colonne de droite pour passer d’articles en articles mais ce n’est pas possible sur mobile. Avec une mauvaise connexion mobile, le chargement de la page d’accueil est longue : ça oscille entre 3 et 12 secondes pour moi :‘(
Le 04/05/2013 à 22h29
C’est dommage de lire toujours les mêmes remarques concernant Atom et son manque d’autonomie supposée… Cela n’est absolument pas vrai. L’exemple le plus récent est l’acer iconia w510 qui tient 9 h et 18h avec le clavier branché (en véritable condition) et qui lui permet d’être actuellement la tablette la plus endurante !
" />)
Après vient le problème de la puissance. Il est évident que la puissance n’est pas comparable à la famille des i3/i5/i7 mais elle surpasse les tegra 3 (par contre, je n’ai pas vu de comparaisons avec les derniers processeurs de qualcom et de Samsung
Maintenant comparons avec la concurrence.
Dans les 2 cas, la tablette sous w8 semble moins cher (en partant du principe 1$ = 1€, elle couterait 20€ de moins que la Samsung et 50€ de moins que l’Ipad)
Ensuite vient la préférence du système d’exploitation avec le choix entre IOS, Androïd et W8 avec son interface UI. Là les goûts et les couleurs …
Quand il faut comparer à des pcs. L’atom ne peut pas tenir en puissance brute face à la famille des i3/i5/i7 mais en autonomie elle les explose ! Le choix se pose mais le porte-monnaie risque de parler. Pour avoir des machines avec des cores i, la gamme des prix n’est plus du tout la même (en tablette, je ne vois de suite que la surface pro qui vaut 1000 €
Pour avoir eu la possibilité de tester l’Acer Iconia w510, j’ai trouvé que l’utilisation normale (bureautique, internet - sans avoir 10 onglets ouverts en même temps -, visionnage de films en mkv) est agréable. Par contre pour faire des traitements lourds comme Photoshop, il faut s’armer de patiences au lancement des logiciels puis pour faire des traitements.
Du coup je trouve que c’est un bon produit avec un excellent rapport qualité/prix et qui peut convenir à un large public non spécialiste.
Pour terminer, la sortie des nouveaux processeurs atom va permettre à Intel de faire un grand bon (passage de 2 à 4 coeurs et d’une gravure de 32nm à 22nm). Apparemment, la sortie serait pour fin 2013. Est-il utile d’investir maintenant ou d’attendre 6 mois de plus ? Cette question se pose tout le temps en informatique
Le 27/04/2013 à 14h08
Le 27/04/2013 à 10h00
Édito intéressant.
" />
" />
" />
Par contre, je ne vois pas l’impact réelle de la cotation boursière sur la vie d’une entreprise. En effet, d’après ce que j’en sais, la valeur boursière est utile pour l’entreprise quand elle veut faire une levée de fond via la création d’actions. Hors Apple a suffisamment d’argent de côté pour ne faire aucune levée de fond.
Quelqu’un aurait une explication ?
Je suis tout à fait d’accord avec l’édito pour dire qu’une révolution ne peut pas se faire tous les 6 mois ! Je pense qu’on verra les véritables compétences de Tim Cook et de Steve Ballmer sur leur capacité à trouver la prochaine révolution (comme la convergence technologique tant rêvée). Jusque là, c’est dur de les critiquer en sachant qu’ils font augmenter le chiffre d’affaire de leur entreprise