Le problème est surtout social : tu peux faire partie d’un groupe de discussion sur iMessage que depuis les appareils Apple. Donc si tu quittes l’écosystème, tu quittes aussi les groupes de discussions qui sont dessus. Le RCS permet les groupes de discussions aussi, et le fait que iMessage prennent en charge les deux veut dire que des gens hors écosystème pourraient participer aux même groupes (sauf si Apple joue au con, comme d’habitude).
Oui, on peut faire ~la même chose avec des SMS, mais c’est clairement pas pareil.
Pour les MMS, effectivement, y’a des limites. Usuellement, la limite de taille est de 300 ko. Donc une image un peu grande est réduite d’office. Il me semble qu’avant les limites étaient plus serrées encore (150 ko ?).
Ca me fascine de voir tous ces geeks défendre une banque…
Parce, rappel des épisode :
Lydia poste une annonce. Cette annonce est OK. Limite, mais OK.
BTA pointe du doigt les côté limite de l’annonce, suivant sa ligne éditoriale.
Lydia, dans la foulée lui supprime son compte.
BTA publie l’information de 3.
Son compte est rouvert.
Le patron de Lydia lui envoi des menaces.
L’article de NXI, c’est pas pour le 1., ni pour le 2.. Le gros problème, c’est le 6.. Et quand on réalise qu’il s’agit d’une personne seule face à une banque valorisée à un milliard de dollars (définition de la licorne), on se rend compte que, peut-être, le combat est inégal.
Bref. Si ça peut mettre en lumière, à nouveau, les problèmes de toxicité de cette startup, tant mieux.
Oui et non : c’est le boss le responsable, de mettre l’employé dans un stress tel qu’il est prêt à mettre en jeu son corps, littéralement, pour faire avancer le projet.
Le mec a fait du mieux qu’il pouvait dans les conditions qu’il avait.
Mihashi a dit:
D’autant que c’est absurde cette urgence. Si on était capable de terraformer Mars on saurait très facilement réguler le climat sur Terre…
Mais carrément. Qu’il colonise le Sahara, ou le désert de Gobi. Une fois qu’il aura réussi, on pourra voir pour Mars.
euromix a dit:
du XIXe siècle ou des industries minières d’Afrique du sud pendant l’antiapartheid .
Exactement. (ou plus précisément, pendant l’apartheid ;) ).
Le
13/11/2023 à
17h
44
“Go fast, break things, and make the boss happy”. Pathétique.
« La responsabilité de ces défaillances de pièces et des blessures qui en résultent incombe plutôt à un groupe d’employés connus sous le nom d’“ingénieurs responsables », explique-t-elle. Ils sont « responsables ultimes de leurs composants et systèmes, y compris au niveau de la sécurité ».
Traduction : “ils sont responsables des pièces de A à Z, y compris la sécurité. Certes, on leur a demandé de faire une pièce en 12 mois alors qu’il aurait fallu 5 ans pour la faire normalement, mais c’est eux les responsables du produit fini.”
Donc le seul intérêt du MBP entrée de gamme, c’est l’écran ? Ca fait léger pour le prix…
Donc le Dell, qui a une meilleur résolution, en OLED, faut mieux le coup ?…
Le
07/11/2023 à
11h
33
ericse a dit:
Je veux bien parler du MBP 14” si tu veux bien arrêter avec le XPS 13” qui n’a rien à voir.
Pourquoi rien à voir ? De meilleurs specs à moins cher, c’est très lié.
ericse a dit:
Le MBP 14” est un ordi doté d’un écran fabuleux
Du coup, lui, il a pas trop de pixels pour sa taille ? Ou pas assez ?
ericse a dit:
d’un CPU et GPU excellents, de multiples connecteurs (HDMI, SD, USB-C, mais je te l’accorde il faut un adaptateur pour l’USB-A), et surtout d’une autonomie qui dispense de prendre son chargeur la journée. C’est une machine capable d’avaler n’importe quelle tâche aussi lourde soit-elle (montage vidéo 4K/8K, modélisation 3D lourde, retouche de photo UHD, etc.) en fonction du choix de CPU/GPU/RAM/SSD. J’ai vu plusieurs entreprises basculer de PC à MBP14” parce que, bien qu’assez chère, le rapport performance/portabilité/prix est juste imbattable.
Bah encore une fois, le Dell susnommé a les specs pour avaler n’importe quelle tâche également. Sans avoir à payer plus cher…
ericse a dit:
L’article lui-même est assez critique sur la machine, mais les argumentaires restent très en surface (faible évolution, cout des options RAM/SSD) et n’abordent pas le rapport perf/prix de chaque configuration proposées, qui est ce qui compte vraiment pour l’acheteur. Si l’on fait 2 fois plus de boulo en ajoutant 50% au prix de l’outil, c’est toujours un investissement rentable, en tout cas pour un usage professionnel.
Faible évolution et réparabilité. Parce qu’on en a pas parlé, mais quand même, c’est la cata chez Apple. Pareil, le coût des options, comparé au coût des même options chez la concurrence. Parce que c’est là que le bat blesse.
Mais en vrai, ce qui est fascinant, c’est de voir que pour toi, le MBP est une machine magique sur laquelle on fait deux fois plus de boulot. Les vidéos, on les regarde deux fois plus vite. Taper du texte, pareil (c’est vrai que les clavier de portable Apple sont réputés…). Les diapos powerpoint passent deux fois plus vite. C’est ça, la magie Apple…
Oh et du coup, tu n’as pas répondu. Si on est obligé de prendre les options pour que la machine avale n’importe quelle tâche, à quoi sert le MBP à 1999€ ?
Le
06/11/2023 à
22h
54
ericse a dit:
Tu es de mauvaise foi lorsque tu ignores la comparaison que j’ai proposée entre ton XPS 13” et le Macbook 13” équivalent (relis mon post ici) car elle ne va pas dans ton sens,
Bien sûr que je l’ignore. L’article parle du MBP. Je parle du MBP. Pourquoi parler d’un autre modèle. Et c’est même pire que ça, le fait que tu dises que le MB 13” est plus rentable montre bien que le rapport specs/prix du MBP est juste hallucinant et incompréhensible. A quoi sert-il ?
ericse a dit:
et pire lorsque tu proposes la solution absurde de se trimbaler avec des batteries dans la poche pour compenser l’autonomie faiblarde du Dell
C’est simple, les fonctionnalités inutiles d’un appareil (je rappelle : trop de pixels pour sa taille, écran tactile, SSD remplaçable, etc…) n’apportent aucune plus value à l’acheteur, elles ne posent pas de problème en soit, mais elles ne rendent pas la machine meilleure, tout en se retrouvant probablement dans le prix.
A la limite tu pourrais essayer d’argumenter que l’autonomie est un gadget et l’écran tactile indispensable, où qu’un 13” puisse sembler plus grand qu’un 14” si on colle son nez dessus (pratique en tactile, plus besoin de souris), les arguments seraient surement interressants à lire
C’est rigolo, c’est toujours la même rengaine : “Eh mais le modèle que tu as choisis à un écran pourri, il me faut un bon écran” et puis d’un coup “ah non, là, l’écran il est trop bon, il me faut un moins bon écran”.
Et non, c’est pas un détail si on écoute le marketing d’Apple sur les Retina… Ok, c’est peut-être accessoire. Mais c’est toujours moins cher qu’un MBP. Qui n’a rien de ces accessoires.
Je ne vais pas tenter d’argumenter que l’autonomie est un gadget. Par contre, je pense qu’un port HDMI n’est pas un gadget. Hors, rien en vu sur les machine Apple.
ericse a dit:
Bref, je sais bien que ça va à l’encontre de beaucoup d’idées reçues, mais ici le Macbook 13” équivalent du Dell XPS 13” est moins cher en prix catalogue
Encore une fois, j’en ai rien à foutre. L’article parle du MBP, et mes remarques concernent toutes le MBP. “Ah oui, mais l’autre machine est mieux et moins cher”, bah ouais, dans ce cas là, pourquoi le MBP ?
Le
06/11/2023 à
17h
45
ericse a dit:
Justement un portable 13” UHD ça reste un 13” UHD, et il faut le comparer à un autre 13” UHD (avec les mêmes caractéristiques essentielles, cpu/ram/disque
Globalement, oui. Mais tu peux comparer à specs égales, ou à prix égale et voir la différence de specs. Les deux approches sont possibles.
ericse a dit:
comme celui que j’ai proposé)
T’as proposé quoi ?
ericse a dit:
pas avec le modèle au dessus juste pour justifier ton argumentaire sur le prix, tu es de mauvaise foi là.
Je suis de mauvaise foi ?
J’ai pris un PC au hasard, qui a largement de meilleurs specs avec un prix équivalent, voir moins cher. J’ai également montré que pour avoir les mêmes specs chez Apple, fallait augmenter le prix d’au moins 50%.
Je vois pas où j’ai été de mauvaise foi.
ericse a dit:
Et qu’il ait des options peu utiles (trop de pixels pour sa taille, écran tactile, SSD remplaçable, etc…) ne justifie pas un prix plus élevé pour 99% des acheteurs.
Options peu utiles pour toi. Si on compare les specs, on compare toutes les specs.
Mais là, justement, tu pointes du doigts des options sur l’appareil chez Dell, qui est… moins cher. Donc il a plus d’options, qui ne justifie pas qu’il soit plus cher, pour toi, mais au final, il reste moins cher que le MBP de Apple. Donc les options ont fait… réduire le prix ?
Je comprend pas ta logique.
Le
06/11/2023 à
11h
50
jb07 a dit:
Et on t’a déjà expliqué pourquoi ta comparaison ne tenait pas la route, et pourquoi la machine que tu as dégotée (un peu baroque : 32 Go de RAM, une licence Familiale, un écran 13”, un proc équivalent à un M1) n’avait aucun équivalent chez Apple, la plus proche étant un macbook Air M2.
Ah bah dis donc, t’as toujours des problèmes pour cliquer sur les boutons. Tu peux passer à Ubuntu comme tu veux, et tu mentionnes pas les 2To de stockage. Mais même la RAM, ça correspond pas à un Air, mais à un Macbook Pro.
Oh et l’écran 13”, il a une meilleure résolution (55% plus de pixels, tout de même), que le Macbook Pro. C’est pas toi qui était tatillons sur l’écran ?
Mais encore une fois, j’ai pris ce modèle au pif. Il permet juste de montrer l’étendu de l’écart de prix.
Encore une fois, tu trouves que le Air est plus rentable que le MB Pro. Je suis d’accord avec toi. Ce qui justement fait que le positionnement specs/prix de ce MBP est incompréhensible.
flan_ a dit:
Ils parlent de 7h d’autonomie avec l’écran UHD sur du Netflix (13 avec l’écran de base), là où le MacBook Air est donné à 18 heures pour de la vidéo également. Ça fait une sacrée différence.
Certes. Mais pareil que plus haut, avec l’argent qu’il te reste au bout, tu peux acheter deux batteries et une power bank. Mais y’a tout de même un truc surprenant là : chez Apple, c’est 18h d’autonomie de vidéo, mais seulement 12h en navigation web. C’est… intriguant. Surtout que la plupart du temps, il s’agit d’afficher des pages ~statiques.
Le
04/11/2023 à
23h
11
Non. Je le compare au Macbook Pro, qui débute à 1999€. Le Dell proposant, à prix normal (en tout cas, je n’ai pas vu la moindre réduction sur le site pour le XPS 13 Plus), 32Go de RAM et 2To de stockage.
Donc là, à prix égal, on a de meilleurs specs. Combien il faudrait payer en plus chez Apple pour avoir les même specs ? 1150€. Avec ça, t’obtient 24Go de RAM et 2To de stockage. Ce qui en fait une machine à 3149€. Et c’est de la RAM unifiée, donc incluant le GPU…
Bref.
Le
04/11/2023 à
13h
06
ericse a dit:
Sauf que le Slimbook est bon marché aussi parce que son écran est un simple IPS HD 60 Htz à des années lumières de l’écran d’un Macbook Pro 14”
Si tu compares à qualité égale sur tous les points il n’y a pas beaucoup de différence de prix entre un PC et un Mac, c’est juste qu’il y a plus de diversité de choix (bon ou mauvais) dans le monde PC
Sauf que, comme je l’ai dit, j’ai pris ce PC à la rache.
Comme dit plus haut, si tu prends ce genre de PC https://www.dell.com/fr-fr/shop/ordinateurs-portables-et-2-en-1/ordinateur-portable-xps-13-plus/spd/xps-13-9320-laptop/cn93350cc et que tu cliques sur les bonnes options, t’obtiens un PC avec des specs bétons, avec un écran UHD tactile, au même prix que le Macbook Pro “entrée de gamme” qui n’a que 8Go de RAM et 512Go de stockage (pareil, j’ai pas passé des heures à chercher, donc si un truc te plait pas sur celui là… tant pis. C’est juste pour faire une comparaison de prix).
Le
04/11/2023 à
00h
00
Avec l’argent qu’il reste au bout, t’achètes deux batteries de rechanges, et une power bank. Problème (si il y en avait un) solved. Et tu restes sous le budget.
Le
02/11/2023 à
16h
25
jb07 a dit:
parce que j’avais le choix de prendre un “Air” plutôt qu’un “Pro” Encore une fois, on n’est pas obligé de prendre un “Pro”.
Bah oui. On revient donc à mon message initial qui a déclenché ton ire : quel est l’intérêt des MacBook Pro, à ce prix là, avec 8Go de RAM et 512Go de stockage ?
Dire que les macs ont un moteur de 2CV alors que les procs sont les plus évolués du marché (le rapport consommation / efficacité est imbattable et il faut un i7 pour concurrencer un M1), fallait oser. Comme faire une comparaison avec un DELL avec un écran pourri (oh le joli full HD) et 32 Go de RAM dont aucun utilisateur grand public n’a besoin. Jamais je n’échangerais mon baril de “Air” contre deux barils de ton DELL.
Dude. Clique sur les option. T’as un joli UHD qui fait que le prix atteint les 2000€. Avec tout le reste.
Mais oui, moteur de 2CV : 8Go de RAM, c’est de la 2CV. 512 de stockage, c’est de la 2CV. Aucun PC professionnel aujourd’hui n’a décemment ces caractéristiques.
Et tu parles encore d’utilisateur grand public. Mais il s’agit pas des Air, mais des Macbook Pro. Un indice s’est caché dans ce nom…
Gldump92 a dit:
D’un point de vue technique, Apple vend des machines “fermées” et les périphériques qui vont avec, cohérent par rapport à leur “modèle”. Le tout implique un poil plus de travail de conception en amont qu’un PC qui n’est après tout qu’une sorte de lego lié par un bios parfois propriétaire.
Je suis pas d’accord avec toi là dessus : Sur PC, il faut que tout fonctionne avec tout. Que si tu changes la barrette de RAM et le HDD, et la carte graphique, ça fonctionne encore. Et c’est pas que le bios qui fait le boulot.
Sur Mac, c’est l’inverse : connaissant tout le matos à l’avance, toutes les valeurs peuvent être codées en dur, plutôt qu’être calculées pour chaque matériel. Ca simplifie grandement la conception, à mon avis, et permet de fait une meilleure intégration.
Que les PC arrivent à faire n’importe quelle forme d’intégration, c’est ça qui me semble fascinant, plus que le boulot sur les Mac.
Le
01/11/2023 à
19h
10
jb07 a dit:
Tes besoins ne sont pas ceux des autres. Par exemple, je n’ai que deux ports USB, ça ne me gêne pas du tout, je relie le Macbook à un écran DELL, qui contient ethernet, hub USB et tout le toutim. C’est très propre au final sur le bureau.
Je parle pas des besoins, qui effectivement peuvent varier, mais des specs, et des possibilités. Si tu prends du Apple, t’as pas le choix d’avoir deux ports ou 5. Dans tous les cas, tu payes au moins 2000€. Et tu te retrouves avec 8Go de RAM et 512Go de stockage. C’est pas un choix.
Je cherche un portable sous Linux en ce moment, j’ai bien regardé cette machine. Elle a un problème avec son écran.: c’est surement un bon vieux 1920x1200, autant dire une petite m*rde (d’ailleurs, je n’ai pas trouvé l’info sur le site)… Pour un écran digne de ce nom, il faut aller sur ce modèle. Pour le même prix, j’ai un macbook air de la génération précédente, avec un bel écran, pas de ventilo pour te souffler dans les oreilles. C’est un choix qui se défend tout autant.
Sauf que là, on parle des MacBook Pro. Et pour moins cher que le premier prix des MacBook Pro (1999€), tu as effectivement ce modèle qui semble mieux, avec un écran de qualité, suivant ton avis, et… 64Go de RAM, et 2To de stockage. Et les ports. Et le choix de prendre un autre modèle.
Ce que j’entends dans pas mal de commentaires, c’est “ma 2CV a 4 roues, un volant et 4 places assises comme une Mercedes, je ne comprends pas pourquoi les Mercedes se vendent.” (je caricature un peu, mais certains de ces commentaires étaient franchement caricaturaux).
Pour 1757€, on a 2x2To de stockage, 64Go de RAM, un Ryzen 7 (8C16T), et tous les ports que l’on veut (3xUSB, HDMI, RJ45). A comparer avec “l’entrée de gamme” Macbook Pro : 1999€, 8Go de RAM, 512Go de stockage, et 2 ports USB.
J’ai pris un outil similaire, et j’ai les belles scènes qu’ils recherchent… Evidemment, ça ne les intéressait pas ceux là. C’est donc une étude partielle. Et si on choisit de regarder à un endroit, et pas aux autres, il faut aussi dire pourquoi.
Parce que leur étude portait sur MidJourney. Point. On se fout de ce que fait la concurrence. L’étude porte que sur MJ, et apporte des conclusions que sur MJ.
“Les enfants français parlent mal anglais.” ⇒ “l’étude est bidon, regardez, en Angleterre, les enfants parlent presque tous anglais !”
Après, tout tes arguments de “système” qui exclue les vieux, les analphabètes, ceux qui ne peuvent pas taper leur nom indien… Bon, j’ai compris, tu fais partie de ceux qui pensent que s’il y a des exclus, c’est à cause de la société. C’est une façon de voir les choses, un peu trop manichéenne à mon goût, voilà tout.
Ce n’est pas manichéen. C’est extrêmement complexe.
Pourquoi ? Parce que il y a cent ans, les noirs aux US ne pouvaient pas acheter de propriétés où ils voulaient, créant ces quartiers de minorités. Ces quartiers étant plus pauvres, leurs développement n’intéressait personne dans les mairies, surtout que y’avait peu d’impôts qui rentraient. Ce qui fait que peu de parcs, ou juste de la végétation ont été implantés dans ces quartiers, créant ainsi des zones souffrant plus de la chaleur durant les canicules.
C’est politique, parce que ça complexifie l’accès, et donc contribue à maintenir une relation dominant/dominé.
Le fait qu’il ait fallu attendre les années 90 pour qu’il y ait des efforts fait pour l’intégration d’autres cultures est déjà ahurissant, sachant que le premier PC date de 1971 (premier ordinateur, 1946).
Le fait que les personnes agés n’ai plus accès à l’administration car elles savent pas se servir d’un ordinateur est politique également. Ou les personne analphabètes (bah oui, elles existent).
Bref, que tu le veuilles ou non, c’est politique : le système a été construit ainsi, et il faut faire des efforts pour le modifier.
Enfin, sur le sujet de l’article, comme je l’ai dit plus haut, c’est effectivement facile de faire sortir l’image que l’on veut à MJ. Le problème étant que ça devrait être aussi facile dans un sens ou dans l’autre. Or, ce n’est pas le cas.
FabzInpakt a dit:
Je pense donc que nous sommes face à une étude faite par des chercheur en bioéthique orientée politiquement (et pas par le courant le plus pacificateur), ça oui !
Wait what ?!
Des chercheurs ont une hypothèse. L’applique, et trouve un résultat. Un résultat répétable par n’importe quel chercheur. Et toi tu dis qu’ils sont pas pacifique ?!
Ils dénoncent du racisme intrinsèque à un outil, et tu penses qu’ils veulent la guerre ?!
C’est pas a toi de leur dire quel ton utiliser, ou quel sujet étudier. Et heureusement.
Le
27/10/2023 à
17h
30
Tu n’as pas bien compris ce qu’est MidJourney. Ça sert à générer des stéréotypes. Quand tu lui demandes de représenter “un médecin”, tu ne lui demandes pas une description toute en nuance de 45 pages ni de disserter sur toutes les variantes, tu lui demandes une image. Il doit résumer tout le concept en une seule image, c’est bien la définition du stéréotype. Pourquoi donc s’offusquer qu’il sorte des stéréotypes ?
Parce qu’il sort des stéréotypes aussi quand on lui demande autre chose.
Le
27/10/2023 à
13h
26
Les commentaires sont parfois ahurissants ici…
Ce que l’étude soulève, c’est que :
MJ peut générer des médecins noirs ou blancs
MJ peut générer des enfants soignés, noirs ou blancs
⇒ Il devrait être capable de générer n’importe quel mélange des deux.
Qu’il n’y arrive pas implique deux choses :
Ce RdN (réseau de neurones, n’a pas été renforcé lors de son entraînement pour générer des photos de médecins noirs avec des enfants blancs, parce qu’il y a très peu d’images qui représentent cette scène dans la nature. C’est un biais sociétal. Qu’il soit basé sur des faits réels ou non, là n’est pas la question.
Du fait de son fonctionnement, MJ prend ce biais, et le transforme en préjugé, en stéréotype : “il est impossible qu’un médecin noir soigne des enfants blancs”. C’est cette impossibilité là qui est problématique.
MJ arrive a générer des chats cosmonautes marchant sur le Soleil. Le fait qu’il n’arrive pas a générer la scène dont on parle est un grave problème.
Par ailleurs, pour le terme “noir africain”, le problème vient de la traduction, et de la source américaine de MJ : je pense que ce terme a été utilisé pour l’opposer à “afro-américain”.
Et oui, peut-être que bidouiller les termes auraient permis à MJ de générer l’image voulue. Genre, j’suis quasi sûr que “Médecin blanc, bronzé comme un noir, soignant des enfants pauvres, blancs” fonctionnerait. Ce qui prouverait que le biais est bien profondément ancré.
Enfin sur la neutralité de l’informatique, je me gausse.
Non, l’informatique n’est pas neutre. Quand une personne indienne (d’Inde) ne peut pas écrire son nom parce que UTF8 ne contient pas les bons caractères, c’est pas neutre. Même quand un distributeur de savon ne fonctionne pas quand la peau est sombre, c’est pas neutre (certes, c’est pas de l’info, c’est de l’électronique, mais c’est pareil).
Le fait que MJ fonctionne mieux en anglais que dans n’importe quelle langue en est encore une preuve.
Tout est politique. Absolument tout. Et le fait que MJ ne puisse pas générer la scène en question prouve le biais sociétal, et le fait que ce n’est pas corrigé par l’informatique, et que donc, il y a, et aura probablement, répétition de ce biais.
Merci pour cet article qui clarifie complètement les zones nébuleuses de l’article récent sur le même sujet.
fdorin a dit:
Aujourd’hui, l’usage des algorithmes asymétriques est sûr. Par contre, si un jour un ordinateur quantique sort, on sait qu’il sera cassable facilement.
Juste un détail de vocabulaire : “l’usage des algorithmes asymétriques” n’est pas sûr tant qu’on ne sait pas de quels algorithmes ont parle. On sait que RSA, El Gamal ou les courbes elliptiques sont probablement OK (99.9 %). Mais on sait aussi que RSA-704 ou que ECCp-109 sont cassés.
Tout ça pour dire que dire que “tous les usages des algorithmes asymétriques” sont sûr est une phrase dangereuse à dire :)
Pour la pop-up, il me semble que ça a été entendu, et ça va repasser en dessous des articles.
Sinon, je suis d’accord avec toi sur la taille et l’espace. Mais en testant vite fait, je me suis dit que je mettrais le site en 80% de zoom, et ce sera parfait. Quitte même à mettre un style perso qui fait ça dans une extension type Stylish pour que ça s’applique que sur la colonne principale, et pas celle de droite (qui est dimensionnée à peu près correctement).
Enfin sur les suggestions, ouais, je suis pas trop pour non plus. Les liens inter articles inclus par les auteur⋅e⋅s sont effectivement intéressant, mais je crois pas que ce genre de bloc ai une plus-value, sauf à faire que le lecteur reste plus longtemps, si il vient pas souvent.
Je préférerais largement un “article précédent/suivant”, potentiellement avec vignette et titre des articles en question.
Le
23/10/2023 à
22h
05
Deux trois petites choses :
Vous pourriez faire une release sur Github, tagguée correctement, pour suivre l’évolution. C’est accessoire, mais mes TOCs me poussent à le recommander ;)
Il y a pour moi un problème “urgent”, où au moins une réponse serait bienvenue, c’est le #36 sur Github.
Enfin, oui, prenez votre temps, faites les choses bien, c’est un marathon, pas un sprint :)
J’avais remarqué l’évolution sur la longueur des articles, et je les trouve parfait actuellement. C’est beaucoup plus “digeste”, et ça m’évite d’ouvrir encore et encore des onglets “à lire plus tard”, que j’ai rarement le temps de lire.
Pour les podcasts, je le redis ici, mais je suis pour à l’unique condition que ce soit accompagné simultanément d’un article contenant le transcript : deux voies pour accéder à la même information, plutôt que deux voies pour deux informations différentes (texte vs. audio).
Pensez-vous que nous devrions limiter ou arrêter certaines thématiques ?
Non. J’aime cet éclectisme (même si parfois c’est fatiguant, genre le saut en longueur). Je pense que ça colle bien à mes intérêts perso, et des geeks en général. Je regrette juste la perte des articles de Marc, et surtout de son aiguillon CADA-approuved vis à vis des industries culturelles et ou gouvernementales.
⇒ J’aime quand ça dénonce les injustices, et je pense que c’est un role qu’avait NXI qui pourrait revenir.
Devrions-nous au contraire renforcer certaines thématiques ou en lancer de nouvelles ? Si oui, lesquelles ?
Je pense que vous savez ce que vous voulez faire, et c’est ce qui vous plait. Et ça tombe bien, ça me plait.
Y’a juste le détail des tests hardware : J’aime les articles hw, mais je trouve les tests comme superflus. C’est pas du contenu original, on en trouve à la pelle sur tout le web. Etant donné la difficulté logistique de faire ce genre de tests, je préférerais que ce temps passé le soit à recontextualiser… n’importe quoi. C’est là votre plus-value :)
Nos articles sont-ils souvent trop longs ?
Il y en a encore un peu, mais globalement, la longueur me convient parfaitement aujourd’hui. C’est parfait.
Faut-il rouvrir la salle B4 ?
Perso, je voterai non. J’aime pas les tirages au sort. Mais après, ça peut aussi faire venir du monde, donc c’est vous qui voyez.
Pour moi, y’a deux trucs qui me turlupinent : 1/ Le nom. C’est pas un nom facile à googler, du tout. “Inpact”, malgré les problèmes que ça amenait, pouvait être googlable beaucoup plus facilement.
D’autant plus que vous allez utiliser maintenant un TLD peu connu. Du coup, ç’aurait été bien que le TLD fasse partie du nom, quel que soit la forme prise.
Bref, c’est des détails, mais ça a son importance.
2/ Ne plus se disperser : c’est une très bonne chose. J’ai souvent été critique des magazines pour ça. C’est donc cool que vous les arrêtiez. Sauf que vous enchaînez direct avec les podcasts.
Je veux dire, NI a eu les magazines, les newsletters, le deuxième site… Ca disperse le contenu, le cœur du métier, dans différentes voies que tout le monde ne va pas prendre. Et ça peut faire la même chose avec les podcasts.
Pour moi, les podcasts seraient bienvenus uniquement une nouvelle voie d’accès _aux même contenus_ : si un podcast sort, un article simultané sur le site doit apparaître avec la transcription complète en format article. Deux moyens d’avoir les infos, en lisant ou en écoutant.
C’est France Inter qui fait ça, il me semble, et c’est plutôt cool, et c’est le contenu qui s’adapte aux gens, et pas l’inverse (surtout pas l’inverse).
(et n’oubliez pas qu’un podcast doit avoir son RSS à part)
Sinon, pour le nouveau site, une beta d’une beta… s’appelle une alpha ;)
La base a déjà l’air solide, mais clairement, il reste du boulot sur les fonctionnalités, l’accessibilité, la sécurité, les commentaires (qui sont illisibles tels qu’ils sont actuellement)…
Au rythme actuel, dans deux-trois mois, vous pourrez sortir le site, ce qui serait vachement cool ! (oui, ça semble pessimiste, mais croyez moi, c’est plutôt optimiste ;) )
Bref, c’est encourageant tout ça, même si y’a des points à surveiller :)
Merci, mais pas de soucis, j’utilise Dark Reader pour rendre sombre tout ce qui ne l’est pas : il a un mode filtre “statique” qui n’utilise que très peu de CPU, et comme je suis sur une patate comme PC, c’est le meilleur rapport qualité/vitesse.
Mais ça rend tous les sites moches. Lisible, mais moche. Et pour faire des retours, sur une beta, c’est pas top.
D’autant plus que y’a déjà des problèmes d’accessibilité que j’ai remonté (contraste des couleurs des liens)
Le
18/10/2023 à
14h
02
Les propos sont très encourageants, et c’est plutôt chouette, parce que c’est extrêmement rare dans les cas de rachat.
La seule chose qui me semble être une erreur est le choix du nouveau nom : “Next” n’a pas d’originalité, n’est pas unique, et est compliqué à Googler.
Sinon, pour le nouveau site, je vais probablement faire des retours au fil de l’eau, mais, par pitié, vite, un thème sombre ! Mes yeux ne supportent pas plus de 3 minutes un site clair, et c’est compliqué de faire des feedbacks comme ça…
J’ai pas des sources officielles, mais tu googles “CSGO gpu cpu”, et ils te donnent tous la même réponse.
Le
12/10/2023 à
13h
29
Me demande si, entre autre, c’est pour faire la guerre à Apple et à son store…
(reply:2158220:skankhunt42 )
Le truc , c’est que CSGO est rendu pratiquement uniquement en CPU. Donc tout ceux qui ont investi dans un GPU, quel que soit la gamme, resteront limité par le CPU.
Du coup, quand ils ajoutent des effets, même pas grand chose (lumière et smoke), tout de suite, ça fait passer les CPU dans le rouge.
C’est ce qui m’a fait arrêter de jouer : j’ai une patate comme machine (Core 2 Duo), et j’avais la base en carte graphique (GT710). CSGO tournotait suffisamment pour jouer un peu. Puis avec le temps, ça tournait de moins en moins. J’ai ensuite eu une GTX960, et ça a presque empiré sur CSGO. Aujourd’hui, c’est clair que ça tourne plus, du tout. Alors que cette upgrade de carte graphique m’a donné accès a pleins de jeux (même avec le CPU pourri que j’ai).
Je comprend la deuxième : on cumule les deux chiffrements, comme ça, même si y’en a un qui est cassé (que ce soit parce que l’ordi quantique s’est amélioré, ou que l’algo quantique utilisé ne soit finalement pas si fort), le message reste quand même sécurisé.
Par contre, ce qui est décrit comme utilisant les deux algos en parallèle (et donc proche de l’option 1), c’est la signature, qui ne change pas le message, mais qui le certifie. Si une des technos est cassée (→on peut créer de faux certificats pour certifier des messages), on aura toujours l’autre algo pour double-vérifier.
La dernière fois que j’ai regardé (iphone x) c’était de l’optique. Je pense qu’ils font optique + gyro, si un truc est détecté à proximité mais tel à plat, ça émet plus fort. Donc ne pas téléphoner allongé ;)
Dans mes expériences sur un Samsung Galaxy s4, la proximité qui déclenchait le capteur était de 8cm.
Sur mon LG G5 (que j’utilise encore, oui oui), c’est indiqué comme 5 cm. C’est kif kif.
Mais oui, c’est clairement de l’optique.
Et comme tu dis, faut pas téléphoner allongé, le téléphone sur le lit, la tête posée dessus.
Le
11/10/2023 à
17h
20
Apple a triché. Puis, a refusé de jouer. Puis se plaint des règles du jeu.
Quelle bande d’arnaqueurs.
Non. Le détecteur de proximité est bien une led IR avec un capteur optique. Il y a bien un magnétomètre dans l’iPhone, qui permet de faire des expériences cool, oui. Mais, jusqu’à preuve du contraire, le corps humain n’est pas composé à 100 % de métal. Et oui, ce détecteur est binaire. Tu peux le voir quand tu tapes directement dans l’API. C’est d’ailleurs pour ça que ça renvoi un… booléen. Apple
Tout ça pour dire que le cas de l’ado à 2 cm de sa table de chevet est valide, et ne sera pas détecté par l’iPhone, qui émettra plus de puissance.
“Cool ! J’ai économisé 300 ko sur ce morceau de musique en téléchargeant un modèle de 5 Go !”
A priori, le principe serait d’avoir une base stable de modèle pour compresser. Ou, au pire, en ajouter un tag de version spécifique de ce modèle. T’as la même chose dans les compressions classique, type zip/rar, où y’a différentes version des dictionnaires.
Donc non, tu risques pas de perdre tes données.
Après, comme il s’agit d’une mode, dans 20 ans, il y aura probablement plus trace de ces modèles, donc toutes les données seront perdues. Alors que FLAC et ZIP seront encore connu dans 20 ans ;)
Si au moins ça venait avec un moteur différent pour un peu diversifier et pérenniser les standards du web… mais non, juste la soupe webkit, encore et toujours…
L’utilisation de Webkit est dû aux limitations d’Apple. Vivaldi aurait préféré utiliser le même moteur qu’ils utilisent pour toutes les autres versions…
Okki a dit:
Pareil. Non seulement c’est non libre (faut avoir confiance), mais ils n’ont même pas pris la peine de proposer un Flatpak, histoire d’avoir quelque chose d’un minimum cloisonné, avec les autorisations qui vont bien pour l’accès aux fichiers, aux périphériques, à la géolocalisation…
Si un flatpak de Vivaldi était fourni, tu serais moins en sécurité que si tu lançais Vivaldi de manière normale : flatpak ne permet pas au navigateur l’isolation inter-processes qu’il utilise habituellement, l’obligeant a désactiver son isolation, et donc le rendant moins secure.
Et ces finesses de gravures ne mesurent plus rien de concret. Mais en plus, avant (enfin, pendant un temps après la période où ça représentait les transistors), ça représentait la distance entre certains éléments constituants un transistor.
Bref, ça permet juste de se donner un ordre d’idée (passer de 7 à 3, plus de 50% de réduction, passer de 20A à 18A, réduction de 10%)
A ceci près que le stream-ripping est considéré comme de la copie privée, et que nonobstant la licéité de la source, faire une copie est considéré comme une copie privée.
Sinon, il faudrait prouver que le téléchargeur savait que la source était pirate. Et quand on trouve des longs-métrages sur Youtube, c’est… compliqué à prouver.
Le
21/09/2023 à
17h
05
En France aussi le téléchargement est légal. C’est l’upload qui ne l’est pas, et c’est pour ça que c’est plus simple pour Hadopi de pister sur les torrents que sur le DDL…
Non. Le manque de choix dans une médiathèque vient de la place, pas à cause d’une raison légal ou autre. Y’a qu’a regarder ce que propose la BnF quand on prend son abonnement (24 € par an) : accès à presque toute la presse française, accès à toute la musique dispo sur un site de streaming, etc.
Aujourd’hui, le piratage semble plus large, je te le concède. Mais t’as jamais été dans les pays en développements, où la vente de cassettes ou CD copiés était florissante. Encore une fois, oui, le piratage existait avant le web.
Enfin, quelques sources, pour différentes études (premiers résultats Google…)
1/ Uptobox a un mode gratuit, et je l’utilise depuis des années. Même avec ses limites.
2/ Du coup, c’est quoi la différence entre Uptobox et la médiathèque ? Je vais chercher un film, je le copie, et je le regarde quand je veux. C’est pareil des deux côté.
3/ Toutes les études ont montré que les pirates étaient ceux qui dépensaient le plus en biens culturels.
A l’époque d’Hadopi, tout ceux qui savaient de quoi ils parlaient voulaient la licence globale, c’est pas pour rien. Parce que le piratage existait avant le web (mon double lecteur de cassettes audio a bien chauffé en son temps), et existera encore pendant longtemps.
Dans le cas présent, on sait même pas si Uptobox était rentable. Héberger tout ces fichiers, c’est pas donné.
Mais dans tous les cas, y’aura toujours des remplaçants qui vont arriver, gratuit ou payants.
D’ailleurs, ça me rappelle l’histoire de Razorback, il y a de cela bien des lunes…
Un système clair et transparent c’est la base et unity est en tord ,mais pointé l’avidité d’une boite qui perds de l’argent, c’est très gros.
En même temps, personne les oblige a développer Unity3D. Si ils y perdent de l’argent, c’est leurs fautes.
Et puis là, c’est changer les règles de but en blanc : c’est comme si Microsoft disait, là, demain, “à partir du premier janvier, pour toute machine ayant Windows d’installé, vous devrez nous payer un euro par mois”. Tu penses pas que les grosses entreprises, qui calculent leurs amortissements sur des années, feront pas la gueule, un peu ? T’imagines les coûts que ça peut engendrer, ou les pertes, pour les boites qui sont à peine à l’équilibre ?
Le problème n’est pas le principe de payer. J’ai vu des devs dire “faites nous un Unity-Store, comme Steam, et prenez 12 %, ça me pose pas de problèmes”.
Les problèmes sont : 1/ Le délai est ultra court. Quatre mois, alors que certains devs ont passé des années à bosser sur leurs jeux, en planifiant les dépenses au poil de cul pour que ça passe.
2/ C’est rétroactif. T’as un logiciel qui a déjà dépassé les limites, tu dois payer pour chaque installs à partir de maintenant. Même si maintenant, tu donnes gratos le jeu.
3/ C’est flou. Un dev ne peut pas prévoir combien ça va lui coûter.
4/ Les réinstallations sont payantes. Tu changes ta carte graphique, ça compte comme une nouvelle install, paf, le dev se fait débiter.
5/ Dans le flou artistique du début du débat, il semblait que les apps en WebGL utilisant Unity allaient être compté comme une install à chaque F5. C’est dire comme la com’ était à chier. La FAQ semble contredire ce point cela dit.
6/ Aucun nouveau service n’est fournit. Quand SFR ou Bouygues augmentent leurs forfaits sans qu’il y ait une contrepartie pour l’utilisateur, tout le monde gueule, avec raison.
7/ Et le plus important, la confiance est rompue. Qu’est-ce qui dit que Unity va dire dans un an “ah, on perd trop d’argent, du coup, on va prendre 50 % de vos revenus, et c’est rétroactif”. Un jeu, c’est un truc prévu sur des années, et si tu peux pas te permettre d’utiliser un logiciel qui n’est pas pérenne, au moins sur la durée de vie de devs et de ventes. Surtout que là, à la base, Unity avait “promis” aux devs “licence, puis usage illimité gratuit”. Bref, je serais comptable dans une boite de dev, je les pousserais fortement à choisir un autre moteur, plus “stable”.
Tu rentabilises ton alarmes ou ton ascenseur sur 10 ans ?
Bah non. Donc des problèmes se posent pour les produits qui durent plus longtemps, c’est tout le sujet.
A ce compte là, autant couper la 2G/3G, et limiter le débit sur les autres. On aura la baisse de traffic qui fera baisser la conso électrique et les améliorations énergétiques liées aux nouvelles technos.
Tout ça pour dire que couper la 4G/5G pour garder la 2G/3G est une bêtise fractale.
Le
13/09/2023 à
21h
48
Mon alarme, en 2G, aucune option possible pour passer en 3G/4G/5G a part remplacer tout le systeme, qui a couté plus de 5k et encore parfaitement fonctionnel.
J’me demande si y’aurait pas moyen de faire un appareil pour convertir à la volé : Tu mets une cage de Faraday autour de l’émetteur 2G. Dans cette cage, tu mets un récepteur local 2G, avec un fil qui va vers un émetteur 4G/5G. Y’aurait moyen de rendre ça accessible.
Mais je doute que ça arrive.
Le
13/09/2023 à
21h
46
Et dire qu’en 2011 il y avait les premiers téléphones qui géraient la 4G. Je trouve ça sidérant que 12 ans plus tard ça fasse toujours pas partie du minimum vital pour l’ultra bas de gamme. Parce qu’en dehors d’un cout de licences/brevet, j’ai du mal à voir ce qui justifie l’écart entre 20€ pour un téléphone complet et +50€ juste pour une compatibilité 4G.
En fait, c’est parce que ce sont des smartphones déguisés. On réduit l’écran, on vire tout, on installe deux trois apps, et ça fait un “feature phone” 4G.
Le pire, c’est que du coup tu te retrouves avec des autonomies de smartphones (2-3 jours) plutôt que feature phones (1-2 semaines, au bas mot).
(reply:2152655:consommateurnumérique)
Les exemples sont donnés dans son post : systèmes d’alarmes, domotique, d’alerte…
Mais si tu veux des exemples encore plus concret, tu peux prendre les ascenseurs, dont le système d’alarme/appel est basé sur de la 2G/3G. T’as aussi les systèmes d’urgences dans les voitures : dans certaines, quand t’as un accident, t’as quelqu’un qui appelle directement la voiture pour te demander si ça va.
Tout ça sur des appareils qu’on ne change pas usuellement tous les 3 ou 6 ans (ça dépend des gens pour les voitures, mais je crois qu’on compte 10 ans en moyenne).
Oui, le renouvellement uniquement des pièces est possible, mais pose d’autres problèmes.
Le
13/09/2023 à
16h
26
« c’est l’ensemble de l’écosystème qui doit œuvrer à anticiper l’arrêt 2G-3G ».
C’est ça le vrai problème. J’ai regardé y’a quelques mois pour remplacer le feature phone de mon père. 2G/3G ⇒ ~20-30€. 4G ⇒ 70€. Et y’avait pas masse de modèles.
A traffic égal ?
Parce que c’est là que le bât blesse : juste ces cinq dernières années, on a multiplié par 5 la quantité de données écoulées en mobile. La 2G/3G n’est pas capable d’écouler ça, ou alors, faut globalement multiplier par 5 la conso électrique (et ça c’est que pour les cinq dernières années. Si con compare avec les années sans 4G, c’est largement pire…)
Chaque nouvelle génération a consommé moins à traffic égal que la précédente. Systématiquement, et largement. C’est donc pas une bonne idée de garder que les technos pas efficaces.
l’USB3 qui ne sera utiliser que par une infime partie des utilisateurs ?
Source ?
Mais dans l’ensemble, ça change rien au pb. Ils ont sorti un SoC en 2022 qui ne gérait que l’USB 2.0.
Qualcomm avait ses SoC qui géraient l’USB 3.0 dès 2016. Apple a 6 ans de retard (au moins). C’est un truc de fou, dans cet écosystème qui va si vite, avec des produits vendus à des prix si élevés…
Le
13/09/2023 à
16h
15
Si, le SOC embarqué est celui la génération précédente, et c’est là que se joue le protocole USB. Y’a pas le matos dans le CPU pour faire du USB plus que 2.0 en gros.
La version PRO MAX embarque le nouveau SOC qui a le matos pour faire du 3.2.
En revanche je suis plutôt d’avis que ça justifie que partiellement, ca reste la faute d’Apple de faire du 2.0 depuis si longtemps.
Et ils ont sortis ce SoC l’année dernière. Qui, en 2022, vendait encore de l’USB 2.0 ?
C’était ridicule l’année dernière, ça l’est encore plus cette année.
Moi je trouve ça étrange tout de même que aucune des vidéos postées ne pointent, à aucun moment, vers les réservoirs géants, ceux là même qui ont été abimés lors du précédent lancement…
Et visiblement, rien n’a réellement changé sur le pas de tir. Si y’a un lancement dans le mois qui vient, il y aura ~autant de dégats.
(quote:2151326:Cyber-n-Ethique) Quelle idée d’avoir autorisé l’installation de cette base dans un espace naturel protégé…
J’ai un vague souvenir d’une histoire comme quoi Boca Chica n’était à l’origine pas destiné à des tests de mises à feu, et que Musk avait promis que ça n’arriverait pas, pour permettre a son entreprise de s’implanter. Ce qui expliquerait pourquoi.
Mais je suis même pas sûr qu’il s’agissait de Boca Chica. Ma mémoire est pas excellente…
Merci pour l’article mais je ne comprends pas trop le “cri” qui y est mentionné. De quoi s’agit il exactement ?
C’est effectivement pas clair dans l’article, mais simplement : Voyager visait pas bien la Terre. L’antenne étant déviée de 2°. Ca semble pas beaucoup, mais à cette distance, ça équivaut à manquer la Terre de 800 millions de kilomètres. Donc envoyer des données, c’est pas possible. Et la sonde peut pas augmenter la puissance pour essayer d’inonder la zone.
Mais de la Terre, on peut toujours viser précisement, ET augmenter la puissance, et c’est ça le cri : essayer d’augmenter la puissance et la precision pour que la sonde, malgré ses 2°, capte suffisamment de données pour se remettre correctement.
938 commentaires
Coups de tonnerre chez OpenAI : Sam Altman viré, Greg Brockman démissionne, ils sont « choqués et attristés »
18/11/2023
Le 18/11/2023 à 22h 33
Donc, le patron de OpenAI a été viré pour avoir donné des informations vraisemblables, mais fausses.
Étonnant
Surprise : Apple implémentera le standard RCS dans iOS l’année prochaine
17/11/2023
Le 17/11/2023 à 16h 10
Le problème est surtout social : tu peux faire partie d’un groupe de discussion sur iMessage que depuis les appareils Apple. Donc si tu quittes l’écosystème, tu quittes aussi les groupes de discussions qui sont dessus.
Le RCS permet les groupes de discussions aussi, et le fait que iMessage prennent en charge les deux veut dire que des gens hors écosystème pourraient participer aux même groupes (sauf si Apple joue au con, comme d’habitude).
Oui, on peut faire ~la même chose avec des SMS, mais c’est clairement pas pareil.
Pour les MMS, effectivement, y’a des limites. Usuellement, la limite de taille est de 300 ko. Donc une image un peu grande est réduite d’office. Il me semble qu’avant les limites étaient plus serrées encore (150 ko ?).
Lydia doublement épinglée par Balance ton agency
15/11/2023
Le 16/11/2023 à 00h 22
Ca me fascine de voir tous ces geeks défendre une banque…
Parce, rappel des épisode :
L’article de NXI, c’est pas pour le 1., ni pour le 2.. Le gros problème, c’est le 6..
Et quand on réalise qu’il s’agit d’une personne seule face à une banque valorisée à un milliard de dollars (définition de la licorne), on se rend compte que, peut-être, le combat est inégal.
Bref. Si ça peut mettre en lumière, à nouveau, les problèmes de toxicité de cette startup, tant mieux.
Des centaines d’accidents du travail à SpaceX depuis 2014
13/11/2023
Le 14/11/2023 à 13h 37
Oui et non : c’est le boss le responsable, de mettre l’employé dans un stress tel qu’il est prêt à mettre en jeu son corps, littéralement, pour faire avancer le projet.
Le mec a fait du mieux qu’il pouvait dans les conditions qu’il avait.
Mais carrément. Qu’il colonise le Sahara, ou le désert de Gobi. Une fois qu’il aura réussi, on pourra voir pour Mars.
Exactement. (ou plus précisément, pendant l’apartheid ;) ).
Le 13/11/2023 à 17h 44
“Go fast, break things, and make the boss happy”. Pathétique.
Traduction : “ils sont responsables des pièces de A à Z, y compris la sécurité. Certes, on leur a demandé de faire une pièce en 12 mois alors qu’il aurait fallu 5 ans pour la faire normalement, mais c’est eux les responsables du produit fini.”
Nouveaux iMac et MacBook Pro M3 (Pro/Max) : des performances, mais une tarification en décalage
31/10/2023
Le 07/11/2023 à 14h 47
Donc le seul intérêt du MBP entrée de gamme, c’est l’écran ? Ca fait léger pour le prix…
Donc le Dell, qui a une meilleur résolution, en OLED, faut mieux le coup ?…
Le 07/11/2023 à 11h 33
Pourquoi rien à voir ? De meilleurs specs à moins cher, c’est très lié.
Du coup, lui, il a pas trop de pixels pour sa taille ? Ou pas assez ?
Bah encore une fois, le Dell susnommé a les specs pour avaler n’importe quelle tâche également.
Sans avoir à payer plus cher…
Faible évolution et réparabilité. Parce qu’on en a pas parlé, mais quand même, c’est la cata chez Apple.
Pareil, le coût des options, comparé au coût des même options chez la concurrence. Parce que c’est là que le bat blesse.
Mais en vrai, ce qui est fascinant, c’est de voir que pour toi, le MBP est une machine magique sur laquelle on fait deux fois plus de boulot. Les vidéos, on les regarde deux fois plus vite. Taper du texte, pareil (c’est vrai que les clavier de portable Apple sont réputés…). Les diapos powerpoint passent deux fois plus vite. C’est ça, la magie Apple…
Oh et du coup, tu n’as pas répondu. Si on est obligé de prendre les options pour que la machine avale n’importe quelle tâche, à quoi sert le MBP à 1999€ ?
Le 06/11/2023 à 22h 54
Bien sûr que je l’ignore.
L’article parle du MBP. Je parle du MBP. Pourquoi parler d’un autre modèle.
Et c’est même pire que ça, le fait que tu dises que le MB 13” est plus rentable montre bien que le rapport specs/prix du MBP est juste hallucinant et incompréhensible.
A quoi sert-il ?
Boarf, quand t’as une machine Apple, il faut te trimbaler tous les convertisseurs et cables pour brancher quoi que ce soit, donc ça change pas grand chose (et c’est pas moi qui le dit : https://www.nextinpact.com/article/72784/nouveaux-imac-et-macbook-pro-m3-promax-performances-mais-tarification-en-decallage#comment/2163305)
C’est rigolo, c’est toujours la même rengaine : “Eh mais le modèle que tu as choisis à un écran pourri, il me faut un bon écran” et puis d’un coup “ah non, là, l’écran il est trop bon, il me faut un moins bon écran”.
Et non, c’est pas un détail si on écoute le marketing d’Apple sur les Retina…
Ok, c’est peut-être accessoire. Mais c’est toujours moins cher qu’un MBP. Qui n’a rien de ces accessoires.
Je ne vais pas tenter d’argumenter que l’autonomie est un gadget. Par contre, je pense qu’un port HDMI n’est pas un gadget. Hors, rien en vu sur les machine Apple.
Encore une fois, j’en ai rien à foutre.
L’article parle du MBP, et mes remarques concernent toutes le MBP. “Ah oui, mais l’autre machine est mieux et moins cher”, bah ouais, dans ce cas là, pourquoi le MBP ?
Le 06/11/2023 à 17h 45
Globalement, oui. Mais tu peux comparer à specs égales, ou à prix égale et voir la différence de specs. Les deux approches sont possibles.
T’as proposé quoi ?
Je suis de mauvaise foi ?
J’ai pris un PC au hasard, qui a largement de meilleurs specs avec un prix équivalent, voir moins cher. J’ai également montré que pour avoir les mêmes specs chez Apple, fallait augmenter le prix d’au moins 50%.
Je vois pas où j’ai été de mauvaise foi.
Options peu utiles pour toi. Si on compare les specs, on compare toutes les specs.
Mais là, justement, tu pointes du doigts des options sur l’appareil chez Dell, qui est… moins cher.
Donc il a plus d’options, qui ne justifie pas qu’il soit plus cher, pour toi, mais au final, il reste moins cher que le MBP de Apple. Donc les options ont fait… réduire le prix ?
Je comprend pas ta logique.
Le 06/11/2023 à 11h 50
Ah bah dis donc, t’as toujours des problèmes pour cliquer sur les boutons. Tu peux passer à Ubuntu comme tu veux, et tu mentionnes pas les 2To de stockage. Mais même la RAM, ça correspond pas à un Air, mais à un Macbook Pro.
Oh et l’écran 13”, il a une meilleure résolution (55% plus de pixels, tout de même), que le Macbook Pro. C’est pas toi qui était tatillons sur l’écran ?
Mais encore une fois, j’ai pris ce modèle au pif. Il permet juste de montrer l’étendu de l’écart de prix.
Encore une fois, tu trouves que le Air est plus rentable que le MB Pro. Je suis d’accord avec toi. Ce qui justement fait que le positionnement specs/prix de ce MBP est incompréhensible.
Certes. Mais pareil que plus haut, avec l’argent qu’il te reste au bout, tu peux acheter deux batteries et une power bank.
Mais y’a tout de même un truc surprenant là : chez Apple, c’est 18h d’autonomie de vidéo, mais seulement 12h en navigation web. C’est… intriguant. Surtout que la plupart du temps, il s’agit d’afficher des pages ~statiques.
Le 04/11/2023 à 23h 11
Non. Je le compare au Macbook Pro, qui débute à 1999€. Le Dell proposant, à prix normal (en tout cas, je n’ai pas vu la moindre réduction sur le site pour le XPS 13 Plus), 32Go de RAM et 2To de stockage.
Donc là, à prix égal, on a de meilleurs specs. Combien il faudrait payer en plus chez Apple pour avoir les même specs ? 1150€. Avec ça, t’obtient 24Go de RAM et 2To de stockage. Ce qui en fait une machine à 3149€. Et c’est de la RAM unifiée, donc incluant le GPU…
Bref.
Le 04/11/2023 à 13h 06
Sauf que, comme je l’ai dit, j’ai pris ce PC à la rache.
Comme dit plus haut, si tu prends ce genre de PC https://www.dell.com/fr-fr/shop/ordinateurs-portables-et-2-en-1/ordinateur-portable-xps-13-plus/spd/xps-13-9320-laptop/cn93350cc et que tu cliques sur les bonnes options, t’obtiens un PC avec des specs bétons, avec un écran UHD tactile, au même prix que le Macbook Pro “entrée de gamme” qui n’a que 8Go de RAM et 512Go de stockage (pareil, j’ai pas passé des heures à chercher, donc si un truc te plait pas sur celui là… tant pis. C’est juste pour faire une comparaison de prix).
Le 04/11/2023 à 00h 00
Avec l’argent qu’il reste au bout, t’achètes deux batteries de rechanges, et une power bank. Problème (si il y en avait un) solved. Et tu restes sous le budget.
Le 02/11/2023 à 16h 25
Bah oui. On revient donc à mon message initial qui a déclenché ton ire : quel est l’intérêt des MacBook Pro, à ce prix là, avec 8Go de RAM et 512Go de stockage ?
Dude. Clique sur les option. T’as un joli UHD qui fait que le prix atteint les 2000€. Avec tout le reste.
Mais oui, moteur de 2CV : 8Go de RAM, c’est de la 2CV. 512 de stockage, c’est de la 2CV. Aucun PC professionnel aujourd’hui n’a décemment ces caractéristiques.
Et tu parles encore d’utilisateur grand public. Mais il s’agit pas des Air, mais des Macbook Pro. Un indice s’est caché dans ce nom…
Je suis pas d’accord avec toi là dessus : Sur PC, il faut que tout fonctionne avec tout. Que si tu changes la barrette de RAM et le HDD, et la carte graphique, ça fonctionne encore. Et c’est pas que le bios qui fait le boulot.
Sur Mac, c’est l’inverse : connaissant tout le matos à l’avance, toutes les valeurs peuvent être codées en dur, plutôt qu’être calculées pour chaque matériel. Ca simplifie grandement la conception, à mon avis, et permet de fait une meilleure intégration.
Que les PC arrivent à faire n’importe quelle forme d’intégration, c’est ça qui me semble fascinant, plus que le boulot sur les Mac.
Le 01/11/2023 à 19h 10
Je parle pas des besoins, qui effectivement peuvent varier, mais des specs, et des possibilités. Si tu prends du Apple, t’as pas le choix d’avoir deux ports ou 5. Dans tous les cas, tu payes au moins 2000€. Et tu te retrouves avec 8Go de RAM et 512Go de stockage. C’est pas un choix.
Sauf que là, on parle des MacBook Pro. Et pour moins cher que le premier prix des MacBook Pro (1999€), tu as effectivement ce modèle qui semble mieux, avec un écran de qualité, suivant ton avis, et… 64Go de RAM, et 2To de stockage. Et les ports. Et le choix de prendre un autre modèle.
Le truc, c’est que là, Apple fait du Mercedes en mettant un moteur de 2CV, mais en gardant le prix haut de gamme.
Même chez Dell, tu trouves des modèles plus haut de gamme pour le même prix ( par exemple, https://www.dell.com/fr-fr/shop/ordinateurs-portables-et-2-en-1/ordinateur-portable-xps-13-plus/spd/xps-13-9320-laptop/cn93350cc)
Oui, tu choisis selon ton besoin, mais là, ils vendent de la merde à prix d’or.
Le 31/10/2023 à 18h 10
Je ne comprend vraiment pas comment Apple continue à vendre ses produits. C’est hallucinant.
Les iMac coûtent un SMIC, et ont les spécifications d’une tablette.
Sérieusement, comparé avec les KDE Slimbook (ce n’est pas de la pub, je ne connais pas bien ces PC, c’est juste pour comparer. Et ce sont pas des modèles des plus récents) :
https://slimbook.es/en/store/slimbook-kde/kde-slimbook-17-comprar
Pour 1757€, on a 2x2To de stockage, 64Go de RAM, un Ryzen 7 (8C16T), et tous les ports que l’on veut (3xUSB, HDMI, RJ45). A comparer avec “l’entrée de gamme” Macbook Pro : 1999€, 8Go de RAM, 512Go de stockage, et 2 ports USB.
Bref. Ça me dépasse.
Les voitures autonomes de Cruise mises à l’arrêt après un accident grave
06/11/2023
Le 06/11/2023 à 13h 12
Comme on dit dans la Silicon Valley « Go fast and break things »…
Quand Midjourney n’arrive pas à représenter un médecin noir soignant des enfants blancs
27/10/2023
Le 02/11/2023 à 23h 36
Parce que leur étude portait sur MidJourney. Point.
On se fout de ce que fait la concurrence. L’étude porte que sur MJ, et apporte des conclusions que sur MJ.
“Les enfants français parlent mal anglais.” ⇒ “l’étude est bidon, regardez, en Angleterre, les enfants parlent presque tous anglais !”
Ce n’est pas manichéen. C’est extrêmement complexe.
Un exemple qui n’a rien à voir mais qui montre comment la société, normale, actuelle, peut en fait être créé suite à des bases racistes : une étude a montrée qu’aux US, les quartiers qui ont une majorité de minorités souffrent plus de la chaleur en été que les quartiers blancs, plus riches (https://jbhe.com/2021/08/black-urban-areas-are-much-hotter-than-white-city-neighborhoods-in-the-summer/).
Pourquoi ? Parce que il y a cent ans, les noirs aux US ne pouvaient pas acheter de propriétés où ils voulaient, créant ces quartiers de minorités. Ces quartiers étant plus pauvres, leurs développement n’intéressait personne dans les mairies, surtout que y’avait peu d’impôts qui rentraient. Ce qui fait que peu de parcs, ou juste de la végétation ont été implantés dans ces quartiers, créant ainsi des zones souffrant plus de la chaleur durant les canicules.
C’est pas manichéen. C’est un enchaînement de “petits” biais, qui cumulés, fait qu’on se retrouve encore aujourd’hui avec des morts, dû au racisme d’il y a 100 ans.
https://www.nytimes.com/interactive/2020/08/24/climate/racism-redlining-cities-global-warming.html
Perdu. Comme il s’agit de Bengali, elle n’utilise pas le Devanagari : https://modelviewculture.com/pieces/i-can-text-you-a-pile-of-poo-but-i-cant-write-my-name
Aurais-tu fait une… généralité ?…
Le 02/11/2023 à 16h 11
C’est politique, parce que ça complexifie l’accès, et donc contribue à maintenir une relation dominant/dominé.
Le fait qu’il ait fallu attendre les années 90 pour qu’il y ait des efforts fait pour l’intégration d’autres cultures est déjà ahurissant, sachant que le premier PC date de 1971 (premier ordinateur, 1946).
Le fait que les personnes agés n’ai plus accès à l’administration car elles savent pas se servir d’un ordinateur est politique également. Ou les personne analphabètes (bah oui, elles existent).
Bref, que tu le veuilles ou non, c’est politique : le système a été construit ainsi, et il faut faire des efforts pour le modifier.
Enfin, sur le sujet de l’article, comme je l’ai dit plus haut, c’est effectivement facile de faire sortir l’image que l’on veut à MJ. Le problème étant que ça devrait être aussi facile dans un sens ou dans l’autre. Or, ce n’est pas le cas.
Wait what ?!
Des chercheurs ont une hypothèse. L’applique, et trouve un résultat. Un résultat répétable par n’importe quel chercheur.
Et toi tu dis qu’ils sont pas pacifique ?!
Ils dénoncent du racisme intrinsèque à un outil, et tu penses qu’ils veulent la guerre ?!
C’est pas a toi de leur dire quel ton utiliser, ou quel sujet étudier. Et heureusement.
Le 27/10/2023 à 17h 30
Parce qu’il sort des stéréotypes aussi quand on lui demande autre chose.
Le 27/10/2023 à 13h 26
Les commentaires sont parfois ahurissants ici…
Ce que l’étude soulève, c’est que :
⇒ Il devrait être capable de générer n’importe quel mélange des deux.
Qu’il n’y arrive pas implique deux choses :
MJ arrive a générer des chats cosmonautes marchant sur le Soleil. Le fait qu’il n’arrive pas a générer la scène dont on parle est un grave problème.
Par ailleurs, pour le terme “noir africain”, le problème vient de la traduction, et de la source américaine de MJ : je pense que ce terme a été utilisé pour l’opposer à “afro-américain”.
Et oui, peut-être que bidouiller les termes auraient permis à MJ de générer l’image voulue. Genre, j’suis quasi sûr que “Médecin blanc, bronzé comme un noir, soignant des enfants pauvres, blancs” fonctionnerait. Ce qui prouverait que le biais est bien profondément ancré.
Enfin sur la neutralité de l’informatique, je me gausse.
Non, l’informatique n’est pas neutre. Quand une personne indienne (d’Inde) ne peut pas écrire son nom parce que UTF8 ne contient pas les bons caractères, c’est pas neutre. Même quand un distributeur de savon ne fonctionne pas quand la peau est sombre, c’est pas neutre (certes, c’est pas de l’info, c’est de l’électronique, mais c’est pareil).
Le fait que MJ fonctionne mieux en anglais que dans n’importe quelle langue en est encore une preuve.
Tout est politique. Absolument tout. Et le fait que MJ ne puisse pas générer la scène en question prouve le biais sociétal, et le fait que ce n’est pas corrigé par l’informatique, et que donc, il y a, et aura probablement, répétition de ce biais.
Le poing dev
30/10/2023
Le 31/10/2023 à 12h 20
Tiens, je viens de tomber sur cet article qui tombe à point nommé sur le débat du texte justifié ou aligné à gauche :
https://blog.stephaniestimac.com/posts/2023/10/css-text-wrap/
Sinon, comme on dit chez moi, si y’a débat, faut une option ;)
Un Suisse refuse (pour l’instant) une solution lui permettant de récupérer ses 239 millions d’euros de bitcoins
25/10/2023
Le 25/10/2023 à 17h 10
Littéralement un problème de riche.
Le chiffrement hybride classique et post quantique, comment ça marche
24/10/2023
Le 24/10/2023 à 16h 10
Merci pour cet article qui clarifie complètement les zones nébuleuses de l’article récent sur le même sujet.
Juste un détail de vocabulaire : “l’usage des algorithmes asymétriques” n’est pas sûr tant qu’on ne sait pas de quels algorithmes ont parle. On sait que RSA, El Gamal ou les courbes elliptiques sont probablement OK (99.9 %). Mais on sait aussi que RSA-704 ou que ECCp-109 sont cassés.
Tout ça pour dire que dire que “tous les usages des algorithmes asymétriques” sont sûr est une phrase dangereuse à dire :)
Le poing dev
23/10/2023
Le 23/10/2023 à 22h 13
Pour la pop-up, il me semble que ça a été entendu, et ça va repasser en dessous des articles.
Sinon, je suis d’accord avec toi sur la taille et l’espace. Mais en testant vite fait, je me suis dit que je mettrais le site en 80% de zoom, et ce sera parfait. Quitte même à mettre un style perso qui fait ça dans une extension type Stylish pour que ça s’applique que sur la colonne principale, et pas celle de droite (qui est dimensionnée à peu près correctement).
Enfin sur les suggestions, ouais, je suis pas trop pour non plus. Les liens inter articles inclus par les auteur⋅e⋅s sont effectivement intéressant, mais je crois pas que ce genre de bloc ai une plus-value, sauf à faire que le lecteur reste plus longtemps, si il vient pas souvent.
Je préférerais largement un “article précédent/suivant”, potentiellement avec vignette et titre des articles en question.
Le 23/10/2023 à 22h 05
Deux trois petites choses :
Vous pourriez faire une release sur Github, tagguée correctement, pour suivre l’évolution. C’est accessoire, mais mes TOCs me poussent à le recommander ;)
Il y a pour moi un problème “urgent”, où au moins une réponse serait bienvenue, c’est le #36 sur Github.
Enfin, oui, prenez votre temps, faites les choses bien, c’est un marathon, pas un sprint :)
Quoi de neuf à la rédac #4 : par où commencer…
21/10/2023
Le 22/10/2023 à 13h 44
J’avais remarqué l’évolution sur la longueur des articles, et je les trouve parfait actuellement. C’est beaucoup plus “digeste”, et ça m’évite d’ouvrir encore et encore des onglets “à lire plus tard”, que j’ai rarement le temps de lire.
Pour les podcasts, je le redis ici, mais je suis pour à l’unique condition que ce soit accompagné simultanément d’un article contenant le transcript : deux voies pour accéder à la même information, plutôt que deux voies pour deux informations différentes (texte vs. audio).
Non. J’aime cet éclectisme (même si parfois c’est fatiguant, genre le saut en longueur). Je pense que ça colle bien à mes intérêts perso, et des geeks en général. Je regrette juste la perte des articles de Marc, et surtout de son aiguillon CADA-approuved vis à vis des industries culturelles et ou gouvernementales.
⇒ J’aime quand ça dénonce les injustices, et je pense que c’est un role qu’avait NXI qui pourrait revenir.
Je pense que vous savez ce que vous voulez faire, et c’est ce qui vous plait. Et ça tombe bien, ça me plait.
Y’a juste le détail des tests hardware : J’aime les articles hw, mais je trouve les tests comme superflus. C’est pas du contenu original, on en trouve à la pelle sur tout le web. Etant donné la difficulté logistique de faire ce genre de tests, je préférerais que ce temps passé le soit à recontextualiser… n’importe quoi. C’est là votre plus-value :)
Il y en a encore un peu, mais globalement, la longueur me convient parfaitement aujourd’hui. C’est parfait.
Perso, je voterai non. J’aime pas les tirages au sort. Mais après, ça peut aussi faire venir du monde, donc c’est vous qui voyez.
Next, un pacte : nos changements et engagements pour la suite
18/10/2023
Le 18/10/2023 à 15h 07
Pour moi, y’a deux trucs qui me turlupinent :
1/ Le nom. C’est pas un nom facile à googler, du tout. “Inpact”, malgré les problèmes que ça amenait, pouvait être googlable beaucoup plus facilement.
D’autant plus que vous allez utiliser maintenant un TLD peu connu. Du coup, ç’aurait été bien que le TLD fasse partie du nom, quel que soit la forme prise.
Bref, c’est des détails, mais ça a son importance.
2/ Ne plus se disperser : c’est une très bonne chose. J’ai souvent été critique des magazines pour ça. C’est donc cool que vous les arrêtiez. Sauf que vous enchaînez direct avec les podcasts.
Je veux dire, NI a eu les magazines, les newsletters, le deuxième site… Ca disperse le contenu, le cœur du métier, dans différentes voies que tout le monde ne va pas prendre. Et ça peut faire la même chose avec les podcasts.
Pour moi, les podcasts seraient bienvenus uniquement une nouvelle voie d’accès _aux même contenus_ : si un podcast sort, un article simultané sur le site doit apparaître avec la transcription complète en format article. Deux moyens d’avoir les infos, en lisant ou en écoutant.
C’est France Inter qui fait ça, il me semble, et c’est plutôt cool, et c’est le contenu qui s’adapte aux gens, et pas l’inverse (surtout pas l’inverse).
(et n’oubliez pas qu’un podcast doit avoir son RSS à part)
Sinon, pour le nouveau site, une beta d’une beta… s’appelle une alpha ;)
La base a déjà l’air solide, mais clairement, il reste du boulot sur les fonctionnalités, l’accessibilité, la sécurité, les commentaires (qui sont illisibles tels qu’ils sont actuellement)…
Au rythme actuel, dans deux-trois mois, vous pourrez sortir le site, ce qui serait vachement cool ! (oui, ça semble pessimiste, mais croyez moi, c’est plutôt optimiste ;) )
Bref, c’est encourageant tout ça, même si y’a des points à surveiller :)
Replay de la soirée de Next
17/10/2023
Le 18/10/2023 à 14h 55
Merci, mais pas de soucis, j’utilise Dark Reader pour rendre sombre tout ce qui ne l’est pas : il a un mode filtre “statique” qui n’utilise que très peu de CPU, et comme je suis sur une patate comme PC, c’est le meilleur rapport qualité/vitesse.
Mais ça rend tous les sites moches. Lisible, mais moche. Et pour faire des retours, sur une beta, c’est pas top.
D’autant plus que y’a déjà des problèmes d’accessibilité que j’ai remonté (contraste des couleurs des liens)
Le 18/10/2023 à 14h 02
Les propos sont très encourageants, et c’est plutôt chouette, parce que c’est extrêmement rare dans les cas de rachat.
La seule chose qui me semble être une erreur est le choix du nouveau nom : “Next” n’a pas d’originalité, n’est pas unique, et est compliqué à Googler.
Sinon, pour le nouveau site, je vais probablement faire des retours au fil de l’eau, mais, par pitié, vite, un thème sombre ! Mes yeux ne supportent pas plus de 3 minutes un site clair, et c’est compliqué de faire des feedbacks comme ça…
Counter-Strike 2 : Valve confirme qu’il n’y aura pas de version Mac
12/10/2023
Le 12/10/2023 à 13h 58
J’ai pas des sources officielles, mais tu googles “CSGO gpu cpu”, et ils te donnent tous la même réponse.
Le 12/10/2023 à 13h 29
Me demande si, entre autre, c’est pour faire la guerre à Apple et à son store…
Le truc , c’est que CSGO est rendu pratiquement uniquement en CPU. Donc tout ceux qui ont investi dans un GPU, quel que soit la gamme, resteront limité par le CPU.
Du coup, quand ils ajoutent des effets, même pas grand chose (lumière et smoke), tout de suite, ça fait passer les CPU dans le rouge.
C’est ce qui m’a fait arrêter de jouer : j’ai une patate comme machine (Core 2 Duo), et j’avais la base en carte graphique (GT710). CSGO tournotait suffisamment pour jouer un peu. Puis avec le temps, ça tournait de moins en moins. J’ai ensuite eu une GTX960, et ça a presque empiré sur CSGO. Aujourd’hui, c’est clair que ça tourne plus, du tout. Alors que cette upgrade de carte graphique m’a donné accès a pleins de jeux (même avec le CPU pourri que j’ai).
Ce 3615 mavie pour dire, c’est le CPU
Faut-il avoir peur de l’apocalypse quantique ?
12/10/2023
Le 12/10/2023 à 13h 16
Comme toujours, XKCD a la traduction pour ce passage https://xkcd.com/678/
Je comprend la deuxième : on cumule les deux chiffrements, comme ça, même si y’en a un qui est cassé (que ce soit parce que l’ordi quantique s’est amélioré, ou que l’algo quantique utilisé ne soit finalement pas si fort), le message reste quand même sécurisé.
Par contre, ce qui est décrit comme utilisant les deux algos en parallèle (et donc proche de l’option 1), c’est la signature, qui ne change pas le message, mais qui le certifie. Si une des technos est cassée (→on peut créer de faux certificats pour certifier des messages), on aura toujours l’autre algo pour double-vérifier.
DAS de l’iPhone 12 : mise à jour pour tous d’ici le 24 octobre, l’ANFR répond aux accusations d’Apple
13/10/2023
Le 12/10/2023 à 13h 09
Sur mon LG G5 (que j’utilise encore, oui oui), c’est indiqué comme 5 cm. C’est kif kif.
Mais oui, c’est clairement de l’optique.
Et comme tu dis, faut pas téléphoner allongé, le téléphone sur le lit, la tête posée dessus.
Le 11/10/2023 à 17h 20
Apple a triché. Puis, a refusé de jouer. Puis se plaint des règles du jeu.
Quelle bande d’arnaqueurs.
Non.
Le détecteur de proximité est bien une led IR avec un capteur optique.
Il y a bien un magnétomètre dans l’iPhone, qui permet de faire des expériences cool, oui. Mais, jusqu’à preuve du contraire, le corps humain n’est pas composé à 100 % de métal.
Et oui, ce détecteur est binaire. Tu peux le voir quand tu tapes directement dans l’API. C’est d’ailleurs pour ça que ça renvoi un… booléen. Apple
Tout ça pour dire que le cas de l’ado à 2 cm de sa table de chevet est valide, et ne sera pas détecté par l’iPhone, qui émettra plus de puissance.
Les modèles de langage sont de redoutables outils de compression sans perte
03/10/2023
Le 04/10/2023 à 16h 40
“Cool ! J’ai économisé 300 ko sur ce morceau de musique en téléchargeant un modèle de 5 Go !”
A priori, le principe serait d’avoir une base stable de modèle pour compresser. Ou, au pire, en ajouter un tag de version spécifique de ce modèle. T’as la même chose dans les compressions classique, type zip/rar, où y’a différentes version des dictionnaires.
Donc non, tu risques pas de perdre tes données.
Après, comme il s’agit d’une mode, dans 20 ans, il y aura probablement plus trace de ces modèles, donc toutes les données seront perdues. Alors que FLAC et ZIP seront encore connu dans 20 ans ;)
Le navigateur Vivaldi disponible sur iOS
29/09/2023
Le 29/09/2023 à 21h 27
L’utilisation de Webkit est dû aux limitations d’Apple. Vivaldi aurait préféré utiliser le même moteur qu’ils utilisent pour toutes les autres versions…
Si un flatpak de Vivaldi était fourni, tu serais moins en sécurité que si tu lançais Vivaldi de manière normale : flatpak ne permet pas au navigateur l’isolation inter-processes qu’il utilise habituellement, l’obligeant a désactiver son isolation, et donc le rendant moins secure.
Yep.
Si tu veux plus de détails, je te recommande la lecture de https://forum.vivaldi.net/post/669805, et des quelques posts suivant.
Comme quoi, s’attacher à un format coûte que coûte n’est pas une bonne idée ;)
Sinon, si tu souhaite juste une install standalone, Ruarí a fait un script pour ça : GitHub
Intel : roadmap sur la finesse de gravure et les CPU, Xeon avec 288 cœurs, prototype UCIe, Gaudi3…
22/09/2023
Le 23/09/2023 à 07h 32
Et ces finesses de gravures ne mesurent plus rien de concret. Mais en plus, avant (enfin, pendant un temps après la période où ça représentait les transistors), ça représentait la distance entre certains éléments constituants un transistor.
Bref, ça permet juste de se donner un ordre d’idée (passer de 7 à 3, plus de 50% de réduction, passer de 20A à 18A, réduction de 10%)
Uptobox « perd » l’accès à des serveurs… qui ont en fait été saisis par la justice
21/09/2023
Le 21/09/2023 à 17h 41
A ceci près que le stream-ripping est considéré comme de la copie privée, et que nonobstant la licéité de la source, faire une copie est considéré comme une copie privée.
Sinon, il faudrait prouver que le téléchargeur savait que la source était pirate. Et quand on trouve des longs-métrages sur Youtube, c’est… compliqué à prouver.
Le 21/09/2023 à 17h 05
En France aussi le téléchargement est légal. C’est l’upload qui ne l’est pas, et c’est pour ça que c’est plus simple pour Hadopi de pister sur les torrents que sur le DDL…
Non. Le manque de choix dans une médiathèque vient de la place, pas à cause d’une raison légal ou autre. Y’a qu’a regarder ce que propose la BnF quand on prend son abonnement (24 € par an) : accès à presque toute la presse française, accès à toute la musique dispo sur un site de streaming, etc.
Aujourd’hui, le piratage semble plus large, je te le concède. Mais t’as jamais été dans les pays en développements, où la vente de cassettes ou CD copiés était florissante. Encore une fois, oui, le piratage existait avant le web.
Enfin, quelques sources, pour différentes études (premiers résultats Google…)
2009 The Guardian
2013 https://www.cbr.com/pirates-spend-300-more-on-content-than-the-rest-of-us-do/
2016 https://torrentfreak.com/pirates-spend-much-more-money-on-music-study-shows-160226/
2018 https://www.vice.com/en/article/evkmz7/study-again-shows-pirates-tend-to-be-the-biggest-buyers-of-legal-content, ce dernier parlant également d’études datant de 2002 et 2005…
Le 21/09/2023 à 14h 01
1/ Uptobox a un mode gratuit, et je l’utilise depuis des années. Même avec ses limites.
2/ Du coup, c’est quoi la différence entre Uptobox et la médiathèque ? Je vais chercher un film, je le copie, et je le regarde quand je veux. C’est pareil des deux côté.
3/ Toutes les études ont montré que les pirates étaient ceux qui dépensaient le plus en biens culturels.
A l’époque d’Hadopi, tout ceux qui savaient de quoi ils parlaient voulaient la licence globale, c’est pas pour rien. Parce que le piratage existait avant le web (mon double lecteur de cassettes audio a bien chauffé en son temps), et existera encore pendant longtemps.
Dans le cas présent, on sait même pas si Uptobox était rentable. Héberger tout ces fichiers, c’est pas donné.
Mais dans tous les cas, y’aura toujours des remplaçants qui vont arriver, gratuit ou payants.
D’ailleurs, ça me rappelle l’histoire de Razorback, il y a de cela bien des lunes…
[MàJ] Jeux vidéo : après s’être vidé un chargeur dans le pied, le moteur Unity fait volte-face
25/09/2023
Le 18/09/2023 à 20h 48
En même temps, personne les oblige a développer Unity3D. Si ils y perdent de l’argent, c’est leurs fautes.
Et puis là, c’est changer les règles de but en blanc : c’est comme si Microsoft disait, là, demain, “à partir du premier janvier, pour toute machine ayant Windows d’installé, vous devrez nous payer un euro par mois”. Tu penses pas que les grosses entreprises, qui calculent leurs amortissements sur des années, feront pas la gueule, un peu ? T’imagines les coûts que ça peut engendrer, ou les pertes, pour les boites qui sont à peine à l’équilibre ?
Le problème n’est pas le principe de payer. J’ai vu des devs dire “faites nous un Unity-Store, comme Steam, et prenez 12 %, ça me pose pas de problèmes”.
Les problèmes sont :
1/ Le délai est ultra court. Quatre mois, alors que certains devs ont passé des années à bosser sur leurs jeux, en planifiant les dépenses au poil de cul pour que ça passe.
2/ C’est rétroactif. T’as un logiciel qui a déjà dépassé les limites, tu dois payer pour chaque installs à partir de maintenant. Même si maintenant, tu donnes gratos le jeu.
3/ C’est flou. Un dev ne peut pas prévoir combien ça va lui coûter.
4/ Les réinstallations sont payantes. Tu changes ta carte graphique, ça compte comme une nouvelle install, paf, le dev se fait débiter.
5/ Dans le flou artistique du début du débat, il semblait que les apps en WebGL utilisant Unity allaient être compté comme une install à chaque F5. C’est dire comme la com’ était à chier. La FAQ semble contredire ce point cela dit.
6/ Aucun nouveau service n’est fournit. Quand SFR ou Bouygues augmentent leurs forfaits sans qu’il y ait une contrepartie pour l’utilisateur, tout le monde gueule, avec raison.
7/ Et le plus important, la confiance est rompue. Qu’est-ce qui dit que Unity va dire dans un an “ah, on perd trop d’argent, du coup, on va prendre 50 % de vos revenus, et c’est rétroactif”. Un jeu, c’est un truc prévu sur des années, et si tu peux pas te permettre d’utiliser un logiciel qui n’est pas pérenne, au moins sur la durée de vie de devs et de ventes. Surtout que là, à la base, Unity avait “promis” aux devs “licence, puis usage illimité gratuit”. Bref, je serais comptable dans une boite de dev, je les pousserais fortement à choisir un autre moteur, plus “stable”.
L’extinction des réseaux 2G-3G diminuera l’empreinte carbone des réseaux mobiles dès la première année
13/09/2023
Le 14/09/2023 à 15h 19
Tu rentabilises ton alarmes ou ton ascenseur sur 10 ans ?
Bah non. Donc des problèmes se posent pour les produits qui durent plus longtemps, c’est tout le sujet.
A ce compte là, autant couper la 2G/3G, et limiter le débit sur les autres. On aura la baisse de traffic qui fera baisser la conso électrique et les améliorations énergétiques liées aux nouvelles technos.
Tout ça pour dire que couper la 4G/5G pour garder la 2G/3G est une bêtise fractale.
Le 13/09/2023 à 21h 48
J’me demande si y’aurait pas moyen de faire un appareil pour convertir à la volé :
Tu mets une cage de Faraday autour de l’émetteur 2G. Dans cette cage, tu mets un récepteur local 2G, avec un fil qui va vers un émetteur 4G/5G. Y’aurait moyen de rendre ça accessible.
Mais je doute que ça arrive.
Le 13/09/2023 à 21h 46
En fait, c’est parce que ce sont des smartphones déguisés. On réduit l’écran, on vire tout, on installe deux trois apps, et ça fait un “feature phone” 4G.
Le pire, c’est que du coup tu te retrouves avec des autonomies de smartphones (2-3 jours) plutôt que feature phones (1-2 semaines, au bas mot).
Les exemples sont donnés dans son post : systèmes d’alarmes, domotique, d’alerte…
Mais si tu veux des exemples encore plus concret, tu peux prendre les ascenseurs, dont le système d’alarme/appel est basé sur de la 2G/3G. T’as aussi les systèmes d’urgences dans les voitures : dans certaines, quand t’as un accident, t’as quelqu’un qui appelle directement la voiture pour te demander si ça va.
Tout ça sur des appareils qu’on ne change pas usuellement tous les 3 ou 6 ans (ça dépend des gens pour les voitures, mais je crois qu’on compte 10 ans en moyenne).
Oui, le renouvellement uniquement des pièces est possible, mais pose d’autres problèmes.
Le 13/09/2023 à 16h 26
C’est ça le vrai problème. J’ai regardé y’a quelques mois pour remplacer le feature phone de mon père. 2G/3G ⇒ ~20-30€. 4G ⇒ 70€. Et y’avait pas masse de modèles.
A traffic égal ?
Parce que c’est là que le bât blesse : juste ces cinq dernières années, on a multiplié par 5 la quantité de données écoulées en mobile. La 2G/3G n’est pas capable d’écouler ça, ou alors, faut globalement multiplier par 5 la conso électrique (et ça c’est que pour les cinq dernières années. Si con compare avec les années sans 4G, c’est largement pire…)
Chaque nouvelle génération a consommé moins à traffic égal que la précédente. Systématiquement, et largement. C’est donc pas une bonne idée de garder que les technos pas efficaces.
Apple : quatre iPhone 15 (USB-C), Watch Series 9 et Ultra 2 et des produits « neutres en carbone »
13/09/2023
Le 13/09/2023 à 20h 58
Source ?
Mais dans l’ensemble, ça change rien au pb. Ils ont sorti un SoC en 2022 qui ne gérait que l’USB 2.0.
Qualcomm avait ses SoC qui géraient l’USB 3.0 dès 2016. Apple a 6 ans de retard (au moins). C’est un truc de fou, dans cet écosystème qui va si vite, avec des produits vendus à des prix si élevés…
Le 13/09/2023 à 16h 15
Et ils ont sortis ce SoC l’année dernière. Qui, en 2022, vendait encore de l’USB 2.0 ?
C’était ridicule l’année dernière, ça l’est encore plus cette année.
Ping-pong entre la FAA et SpaceX avant l’autorisation du deuxième lancement de Starship
11/09/2023
Le 07/09/2023 à 21h 30
Moi je trouve ça étrange tout de même que aucune des vidéos postées ne pointent, à aucun moment, vers les réservoirs géants, ceux là même qui ont été abimés lors du précédent lancement…
Et visiblement, rien n’a réellement changé sur le pas de tir. Si y’a un lancement dans le mois qui vient, il y aura ~autant de dégats.
J’ai un vague souvenir d’une histoire comme quoi Boca Chica n’était à l’origine pas destiné à des tests de mises à feu, et que Musk avait promis que ça n’arriverait pas, pour permettre a son entreprise de s’implanter. Ce qui expliquerait pourquoi.
Mais je suis même pas sûr qu’il s’agissait de Boca Chica. Ma mémoire est pas excellente…
Comment les sondes Voyager communiquent avec la Terre à 20 milliards de km
07/08/2023
Le 07/08/2023 à 18h 07
C’est rigolo, mais une partie de l’année, les sondes Voyager se rapprochent de la Terre. A cause de l’orbite de cette dernière :)
https://earthsky.org/upl/2022/03/Voyager-2-distance-from-Jan-2013-to-Dec-2030-TheSkyLive-1.jpg
C’est effectivement pas clair dans l’article, mais simplement : Voyager visait pas bien la Terre. L’antenne étant déviée de 2°. Ca semble pas beaucoup, mais à cette distance, ça équivaut à manquer la Terre de 800 millions de kilomètres. Donc envoyer des données, c’est pas possible. Et la sonde peut pas augmenter la puissance pour essayer d’inonder la zone.
Mais de la Terre, on peut toujours viser précisement, ET augmenter la puissance, et c’est ça le cri : essayer d’augmenter la puissance et la precision pour que la sonde, malgré ses 2°, capte suffisamment de données pour se remettre correctement.
Et ça a fonctionné :)