Je continu a dire que cette histoire de Snowden c’est la peur que l’on agite pour contrôler les masses. La réalité doit être bien moins dramatique… si réalité il y a…
Dans les années 90, y’avait pas de jeu en ligne. Y’a juste des jeux multi en LAN… et encore, y’en avait pas des masses et ca se faisait rarement en IP mais plutot en IPX ou sur liaison série entre 2 machines
Y’a bien eu qq consoles qui ont proposé du jeu via un modem mais c’etait extremement rare.
Ce que tu veux, c’est juste un mode solo obligatoire quoi…
C’est bien mal connaitre le monde du jeu en multi des année 90. Kali, NetSatdium, Ten, Mplayer… et le LAN était systématique dans tout jeu ayant un potentiel multi (Doom, Warcraft II, CivNet…). Le fait d’utilisé l’IPX ne change rien par rapport à la pile IP, et dois-je préciser que les PC n’avait pas de carte réseau intégré ? Et pourtant ça n’empêchait pas les studio de proposer le maximum en terme de connectivité, tu ne dis toi même d’ailleurs. Ce qui était rare c’était la connexion modem. Et pourtant on la trouvait également en tant qu’option multi.
Je ne veux pas un mode solo obligatoire, je veux un mode LAN obligatoire. Permettre le multi SANS le net et ainsi pouvoir continuer à jouer en multi sans avoir besoin d’une connexion obligatoire.
KP2 a écrit :
Tu parles des grandes references qui ont encore un marché 10 ou 15 ans plus tard… les gens qui se plaignent de jeux dont les serveurs ferment au bout de 5 ans parlent justement des jeux qui sont pas du tout dans ce cas.
Et quake a été libéré il y a bien longtemps, tout est libre maintenant et maintenu par la communauté.
Mais tu peux pas comparer Quake ou Starcraft avec tout le reste, ce sont des exceptions à tous les niveaux (réussite commerciale, intéret, qualité, durée de vie, etc)
Ces jeux n’étaient pas de grande sréférence à leur époque. C’est venu bien après. Duke Nukem 3D, par exemple, était même un shareware, et comme beaucoup de jeux utilisant ce business model il proposait un mode LAN. Il est encore jouable aujourd’hui.
KP2 a écrit :
Mais bon, quelque soit le logiciel, ca reste de toute facon un cout de developpement. Tu peux chercher à le minimiser autant que tu veux, ca reste qqch qui coute de l’argent et sur lequel l’editeur va chercher à gratter d’une facon ou d’une autre.
Et puis ton soft serveur, il va marche combien de temps une fois que l’editeur aura abandonné le jeu ? 1 an ? 2 ans ? L’evolution des OS, des librairies, des technos réseaux, etc va pas s’arrêter non plus…
Heu quand même ?! Une fois un mode en ligne développé, le travail pour intégrer un LAN est insignifiant. Sauf si évidement les types ont tout fait pour déporter au maximum leur moteur de jeu multi… après comme je le disait c’est un choix éditorial, mais pas vraiment une question de thune.
L’obsolescence programmé c’est aussi dire aux éditeur (puisque la on parle de JV) de ne pas brider leur soft dans le temps.
Le
28/10/2016 à
13h
23
KP2 a écrit :
Ben ouais mais c’est un cout de developpement supplémentaire… Tu peux forcer les editeurs de jeu à proposer un logiciel serveur pour leurs jeux en ligne mais sous quelles conditions ?
Si le logiciel serveur est payant, qui va l’acheter pour un jeu qui aura 4 ou 5 ans ? Et a quel prix ?
Et quand bien même qqn l’achete, il va probablement chercher à le rentabiliser mais si y’a plus assez de clients, il l’arretera a son tour…
Et si tu forces l’editeur a fournir le logiciel gratuitement, il faudra pas esperer que le logiciel soit fiable et maintenu dans le temps non plus. Et de toute facon, le cout de ce developpement sera integré dans le prix du jeu.
Et de toute facon, ca n’empechera pas les studios de couler (volontairement ou pas) en laissant en plan les joueurs…
Ah non là dessus tu te plantes ! Dans les années 90 tout les jeux susceptible de se jouer en multi avait déjà une fonctionnalité pour jouer hors ligne et qui fonctionne encore aujourd’hui.
Ensuite qui a dit que le serveur devait être payant ? Les serveurs dédiés de Quake, HL, COD sont gratuit et fournis avec le jeu. Si c’est gratuit pourquoi ça ne serait pas fiable ? Selon mon expérience les jeux proposant une fonctionnalité de jeu ne multi hors ligne sont très fiable.
Le seul argument valable serait celui du cout. Or la plupart des jeux ayant un mode en ligne ont déjà tout ce qu’il faut pour proposer un mode multi hors ligne (LAN). Je ne pense pas que le cout supplémentaire soit si faramineux que cela juste pour l’ajout d’une fonctionnalité fortement utilisée pendant 15 ans.
Avec une fonctionnalité LAN, les jeux restent jouables même après la fermeture des serveurs. Les utilisateurs ne sont donc plus tributaires du bon vouloir de l’éditeur et peuvent continuer à jouer durant autant de temps qu’il veulent.
Le
28/10/2016 à
10h
48
KP2 a écrit :
Et pour les jeux exclusivement en ligne ? Tu vas forcer les éditeurs a proposer un mode solo ?
Pour les jeux de carte ou de société en ligne par exemple, tu fais comment ?
Eh bien tu propose une application qui fait office de serveur dédié. Ou alors tu inclus un protocole P2P qui permet de se passer des serveurs officiels. Ça a déjà été fait, sur console en plus (Gamecube avec un MMO). Donc c’est largement possible. C’est juste une question de volonté.
Le
28/10/2016 à
09h
18
Ils devraient appliqué cela au jeu vidéo également. En rendant obligatoire un mode réseau hors ligne pour les jeux ayant une option multi en ligne. Comme ça, lorsque les serveur sont coupés, on peut continuer à jouer. Et ce sera le retour du LAN !
Dans la vidéo de présentation on voit le pad “pro controller”, donc il y a fort à parier (à part le côté visée) que toutes les anciennes manettes seront compatible. Et donc qu’il sera possible de connecter sa wiimote et de l’utiliser comme manette.
Si c’est le cas c’est top de la part de Nintendo ! Ils gardent le concept lancé par la Wi à l’époque et surtout évite le rachat de tout un tas de périphérique qui sont largement encore utilisable aujourd’hui.
Le
27/10/2016 à
08h
02
Nintendo aurait tout intérêt à rendre sa console compatible avec les Wiimote et les Gamepad de la Wii / WiiU.
V_E_B a écrit :
J’échoue à trouver le moindre intérêt à cette console " />
Le but de la manœuvre est sans doute de revendre SFR à bas prix en tant qu’opérateur de seconde zone. La vache à lait n’a plus rien à donner et coute plus cher qu’elle ne rapporte. Donc autant dégouter ses utilisateurs pour qu’ils quittent d’eux même l’opérateur et ainsi le rendre revendable par la suite.
Mouai…. ça fait peur de voir que toute la puissance de la chose est “dans” l’écran… reste a voir ce que ça va donner en termes de puissance d’affichage mais là j’ai un gros doute !
Un grand classique dans l’informatique, on change le sens des termes pour faire passé la pillule…
thomgamer a écrit :
Je dirais “monopole” plutôt, imposer d’utiliser ses consommables maison au lieu de consommables compatibles c’est pas sympa, surtout au vu du prix des consommables.
Je voulais surtout souligné qu’avec la mise a jour des firmware on peu faire ce que l’on veut :
Un jour bloquer l’imprimante parce que les cartouches ne sont pas officielles (mais sans indiquer la cause de ce blocage, message d’erreur documenté nul part…)
Et le lendemain retirer cette fonctionnalité parce que l’on a été pris la main dans le sac…
Cette ambiance , je n’ai retrouvé ça nulle part, le jeu a vieilli mais même maintenant , il y a un truc.. L’univers, les musiques, les voitures, le scénario..
Oui, je pensais aussi à cette ambiance unique qu’il dégage malgré ses graphismes un peu anguleux, c’est toujours agréable d’y jouer aujourd’hui. Et puis il n’y a pas tout ces artifices graphiques que l’on trouve dans les jeux modernes et qui, pour la plupart, sont juste là pour le “wow effect”.
Le
11/10/2016 à
14h
54
De toute façon Mafia 1 reste indétrônable. Et ce n’est pas cet épisode qui prouvera le contraire…
Écoutes, ce n’est pas moi qui est conçu les carte son. Une chose est sur le PCM ne passe pas directement au DAC, il est traité d’abord par une puce spécialisé, bien distincte du DAC. Ce n’est peu être plus le cas aujourd’hui puisque l’on dispose d’une bonne réserve de puissance.
Concernant l’Amiga la puce Paula est un synthé PCM le fait qu’il est 4 canaux distinct le démarque d’un simple DAC. C’est d’ailleurs pas comparable aux puces qui composent les cartes son PC de la même époque. A part la Gravis qui se rapproche de ce que fait l’Amiga.
Comme je l’ai dit, sur les compatibles Sound Blaster, il y a 2 modes. Le mode normal ou c’est le DSP qui traite le PCM et le mode directe qui envois le flux PCM au DAC sans passer par le DSP. Toutefois en usage normal le mode directe n’est jamais utilisé.
Le
03/10/2016 à
10h
19
OlivierJ a écrit :
Mais il n’y a AUCUN traitement à faire entre du PCM et un DAC, c’est le format le plus simple ! " />
Je ne comprends pas ton obstination sur ce truc.
Et on dit “coder”, pas “encoder” (anglicisme).
Je ne pas suis obstiné, c’est comme ça que ça fonctionne sur les cartes son des année 80⁄90. Un DSP dédié au traitement du PCM traite les data reçues via les canaux DMA. C’est tout. N’importe quel diagramme de fonctionnement des doc de dev des de l’époque te le montrera.
Tu cite souvent l’Amiga, mais regardes sa puce est bien plus qu’un simple DAC, elle est autonome et évite que le CPU se tape le traitement son. Sur les 386, certaine SB16 incluaient un CPU pour décodé les format compressés et permettre d’alléger la charge. Encore une fois c’est uen chose qui a disparue aujourd’hui au profit du soft, puisque les processeurs sont devenu plus puissant.
Le
30/09/2016 à
14h
51
fred42 a écrit :
Va revoir ce qu’est le format PCM avant de dire qu’il est codé et décodé.
Ce que tu expliques peut être vrai pour d’autres formats, mais pas pour le PCM qui n’est pas codé. De ce que tu décris, il doit passer en mode “direct”.
Pour l’ADPCM ou autre codage, je veux bien que ça passe par un DSP.
Quant au fichier .wav, ce n’est qu’un conteneur qui accepte différents formats de son.
Ce que tu expliques du fonctionnement d’une carte son pour ce qui est de la gestion des FIFO et du DAC me semble aussi correct. Mais le DSP ne fait aucun décodage pour du PCM.
Aujourd’hui ce n’est plus le cas (en tout cas sur matos grand public). Mais sur les cartes son ISA et certaines PCI, le PCM est traité en amont du DAC. Et je pense (je ne sais pas comment fonctionne ces puces électroniquement parlant) que c’est lié a 2 choses.
La première est la mise en tampon et l’autre est le fait que les DAC de l’époque n’accepte qu’un seul format de sortie. Le DSP doit encoder le flux PCM pour l’adapter au DAC. Donc effectivement “décoder” est le mauvais terme, “encoder” (pour le DAC) serait plus juste.
D’ailleurs il y a un truc assez caractéristique des cartes de cette époque. Quand tu lit un son échantillonné en 8 bit avec une fréquence assez faible (entre 5 et 11khz) la restitution va te paraitre aliasée, métallique (ca peu être sympa spour donné un feeling particulier). Tu lis le même son sur un PC d’aujourd’hui l’aliasing aura disparu mais le son sera plus “sourd”. Je ne sais pas s’il y a un filtrage particulier effectué électroniquement ou par le drivers (ou tout simplement c’est la restitution naturelle) mais il y a une difrence de restitution entre les puce audio embarqué d’aujourd’hui et les anciennes cartes son des années 80⁄90.
Le
30/09/2016 à
13h
53
fred42 a écrit :
Je vais juste réagir sur le PCM, pas sur le reste qui est indigeste et me semble mal maîtrisé ou en tout cas mal restitué.
Je t’écoute, expliques moi ce qui est mal restitué.
fred42 a écrit :
Le PCM est, comme l’a déjà dit OlivierJ, juste la conversion numérique d’un échantillonnage numérique.
Il n’y a pas de codage à proprement parler, c’est le résultat brut de la sortie d’un convertisseur analogique/numérique.
Comme il n’y a pas de codage pour le produire, il n’y a pas non plus de décodage pour produire un son à partir de ces échantillons.
C’est mal connaitre le fonctionnement des cartes son de cette époque. Ton PCM est sous forme de fichier, lu par un périphérique quelconque. Le soft qui lit ce fichier doit pouvoir reconnaitre le format et acheminé les données jusqu’à la carte son. Cela se fait via les DMA comme tu le dis, ca a toujours été le cas, pour les anciens le 1 pour le 8bit et le 5 pour le 16bit. Mais les canaux DMA c’est juste le transport de l’info, pas le traitement.
C’est après que ça se passe, il faut pouvoir acheminer, lire et restituer ce flux PCM. Sur les carte ISA, il y avait déja une puce dédié a cette opération de gestion des FIFO pour la lecture et l’enregistrement. Chose assez lourde à gérer par un processeur à l’époque (même avec les DMA). Mais c’est après que l’on décode le PCM.
J’insiste sur le terme parce que sur ce type de carte son c’est exactement ce qu’il se passe. Imaginons un fichier WAV, le cheminement de celui-ci de sa lecture a sa restitution sera le suivant :
lesture de données –> envois à la carte son –> décodage par le DSP –> envois au DAC –> restitution en analogique.
Peut être qu’aujourd’hui le chemin est plus direct. Mais sur les cartes son ISA, c’est un DSP qui prend en charge toute la partie du traitement audio. Sur certaines cartes son il y avait même un mode nommé “direct” qui permettait de passer le DSP pour directement attaqué le DAC. L’avantage était de pouvoir restituer des formats non gérés par le DAC (par exemple un échantillonnage ou une fréquence non pris en charge). Mais du coup il fallait aussi se taper en soft toute la gestion des I/O alors qu’elle est prise en charge par la carte son.
Je pense que tu vois les choses a trop haut niveau. D’ailleurs on parle bien de “DSP” pas de DAC.
fred42 a écrit :
Il suffit juste de les reconvertir à la même fréquence que lors de l’acquisition, donc il suffit d’alimenter un DAC avec les différentes valeurs composant le PCM. Et cela se fait effectivement parfaitement par DMA.
Parler de décodage du PCM est un non-sens.
Je ne dis pas contraire, les DMA ont été très largement utilisé par les cartes son pour alléger la charge du CPU. Mais tu oublis que transférer un fichier WAV sur des machines type 386 ou 486 c’était une tache relativement lourde. Même lire des modules était assez gourmand en ressource. Les Gravis par exemple avait tout une électronique dédiée à cela ce qui permettait de ne pas utiliser trop de temps CPU. C’est pareil pour les autres cartes son, elles prenaient en charge de façon hardware le décodage de format compressés (l’adpcm à l’époque) des effets d’environnement, le mixage était matériel et elles étaient capable pour certaines cartes (la gamme AWE chez Creative) de gérer 4 sources audio différentes simultanément (FM, table d’onde, PCM, MPU401). Et cela sans prendre trop de ressource.
OlivierJ a écrit :
PS : En effet la puce du C64 ne gérait pas les échantillons, c’était de la synthèse sonore (c’était marrant d’ailleurs de jouer avec).
Le Gameboy et la NES sont aussi de très bon candidat en matière de timbre unique à la machine. Tout comme le C64 ils sont aujourd’hui beaucoup utilisé en musique.
Le
30/09/2016 à
10h
41
OlivierJ a écrit :
Sur Amiga déjà on envoyait les échantillons (enfin, c’était géré par DMA par la puce directement) à la puce sonore.
Et ça te dit quoi l’électronique d’une carte son ISA ?
Justement c’est géré par la puce. Sur une carte ISA par exemple [url=http://wellby.dyndns.org/dnl/img/snd-sc8000.jpg]celle-ci[/ulr] (et j’ai pas pris la “pire”). Tu as toute une partie dédiée à la gestion des flux PCM. C’est a dire au décodage, a la gestion des I/O et a la décompression quand c’est nécessaire.
Sur les SoundBlaster ISA, la puce dédié au décodage du PCM est une puce Intel, une autre puce gère le contrôle du volume et la réception des donnée via 2 canal DMA.
Historiquement les cartes d’extension PC des années 80⁄90 étaient conçues pour décharger totalement le processeur central qui n’avaient pas assez de puissance pour gérer des taches spécifiques comme le son, la 3D (les 3DFx par exemple) ou l’encodage/décodage (les modem, cartes ethernet).
OlivierJ a écrit :
Tu n’as pas compris grand chose au fonctionnement d’une carte son ou puce sonore.
Il n’y a besoin d’aucun décodage logiciel (et rien à voir avec le MMX) quand on joue du PCM (des échantillons sonores). Les premiers PC n’avaient tout simplement pas de circuit pour gérer le son, au contraire du Commodore 64 et de l’Amiga/Atari (par exemple).
Et ‘est moi qui n’y connais rien ? L’Amiga, le C64 ou l’Atari ont des puces dédiée. L’Amiga gère du full PCM (synthé PCM) tandis que l’Atari ou le C64 gères du PSG ce qui n’a rien a voir avec le sujet ici. Nous somme dans le domaine des synthé pas des DSP audio. D’ailleurs la gestion du PCM sur l’Atari et le C64 se fait en soft étant donné que ces puces ne supporte pas le PCM. SUr Amiga nous avons une puce qui gère 4 canaux en hard, c’est un synthé PCM pas un simple DAC et pas non plus un DSP réservé uniquement a réceptionner un seul flux audio. Paula est une puce totalement autonome. Cette autonomie offre une réserve de puissance pour autre chose, ce qui a permis d’ailleurs de doubler le nombre de canaux de façon logicielle, (4 canaux hard + 4 généré par le 68000).
Le MMX (pour MultiMedia eXtensions, ça veut bien dire ce que ça veut dire) a été entre autre implémenté pour faciliter la manipulation de données audio et vidéo, ce qui à l’époque devenait la priorité nous étions en plein boom de l’arrivé de l’audio et de la vidéo. Les cartes son low cost de la fin des années 90, utilisant uniquement un DSP PCM (genre les Vibra16 ou les puce Crystal WSS) ne fonctionnaient pas sur des CPU non MMX parce que leur design sacrifie la gestion matérielle en faveur d’une gestion soft a l’aide du jeu d’instruction MMX. Idem pour les modem analogiques qui on subit un amaigrissement électronique mais qui ne fonctionnaient qu’avec un CPU disposant du MMX (notamment les modem AMR).
OlivierJ a écrit :
Les opérations d’I/O entre le CPU et une puce/carte sonore se gère parfaitement via du DMA, ça prend une charge proche de zéro pour la machine, surtout vu les débits concernés.
Le MMX peut avoir une utilité sur la création de son (synthèse sonore) ou les effets spéciaux, encore que rien que la puce du Commodore 64 permettait de la synthèse sonore.
La puce du C64 utilise des forme d’onde prédéfinit. Tu peux lui envoyé du PCM, mais il faudra que ton drivers gère ce flux audio, et ça aura un impacte sur les perf quoi qu’il arrive. Même le beeper du PC peu gérer du PCM, mais là encore ça ne se fait pas sans soft. Sur Apple II c’est même le 6502 qui produit le son. Globalement n’importe quel puce peut générer du son a partir du moment ou tu lui “apprend” comme le générer ou décoder.
Autre exemple, lorsque Vista a été commercialisé MS a décidé que la gestion audio se ferait totalement en soft. Certaine carte haut de gamme était relégué au rang de simple DAC et toute leur fonctions hardware n’étaient plus utilisable.
Le
30/09/2016 à
07h
54
OlivierJ a écrit :
Heu… Du PCM ne demande aucun décodage (juste la conversion vers l’analogique), et du sans perte (genre FLAC) ça demande que dalle en terme de performances ; quand à la bande passante, pour le PCM du CD c’est 16 bits stéréo 44100 Hz soit 176 ko/s (~1400 kb/s), c’est peanuts.
Merci bien prof ca me rappel des souvenirs… bref, regarde donc de plus près l’électronique d’une carte son ISA en en reparle après.
OlivierJ a écrit :
" />
Le PCM est constitué des échantillons de la musique (c’est ce qu’il y a sur un CD), il n’y a rien à traiter, il est envoyé tel quel au convertisseur numérique-analogique (DAC), il ne s’agit pas de décodage.
Bien sur que si il y a du traitement. j’entends par traitement toute les opérations d’I/O qu’il y a entre la carte son et le soft qui décode le flux audio. A l’époque des cartes son, le DAC est le dernier maillon de la chaine, il y a tout un traitement hardware qui était effectuer avant. Traitement qui, aujourd’hui est fait en soft. Pour l’anecdote, l’arrivé du jeu d’instruction MMX a permis de réduire les fonctionnalité des cartes sonore puisque ces instructions prennent en compte le décodage audio. Plus besoin de chipset spécifique, le CPU se chargeant d’une partie du traitement audio.
D’ailleurs les premiers XT étaient bien incapable de lire du PCM, il leur fallait une carte totalement autonome pour effectuer cette opération.
Le
29/09/2016 à
07h
41
wagaf a écrit :
Pas plus de décodage logiciel qu’avant. Le MP3 à toujours été décodé en software. Il s’agit de fournir des échantillons audio temps réel à la puce USB au lieu d’un DAC.
Je parle du traitement du signal PCM. Les cartes son de la fin des années 90 avaient un décodage totalement matériel. Elles héritaient cela du fait que les PC, à l’époque n’étaient pas assez puissant pour traiter l’audio (d’ou les synthé FM). Depuis tout se fait en soft.
Le
28/09/2016 à
13h
47
Séphi a écrit :
J’avançais juste que l’argument des perfs n’était pas tellement pertinent vu que c’est peanuts sur un CPU de nos jours. Là aussi on a de l’économie de bout de ficelle.
Après, je suis tout à fait d’accord pour qu’on nous laisse le Jack. L’analogique c’est quand même bien pratique.
Heu… si tu te contente de format compressés type MP3/WMA oui. Mais sur les format PCM bruts ou loseless la bande passante + le décodage c’est loin d’être négligeable en termes de perf. Sans parler du multicanal.
Et si on aborde la cas les players type foobar qui utilisent des plugin spécifique (genre pour lire les dump audio d’ancienne machines) c’est encore pire.
Le
28/09/2016 à
13h
25
Séphi a écrit :
Après, avec le matos qu’on se coltine actuellement, les perfs… On s’en cogne un peu.
Ce n’est pas une raison pour grignoter les perf alors qu’il n’est pas plus cher de libérer le CPU de certaines taches. là c’est juste pour faire des économies de bout de ficelle + contrôler les flux audio.
damaki a écrit :
C’est bien, on va pouvoir jeter ses casques encore plus vite. Ça crée encore plus de potentiel de dysfonctionnements. Et en numérique, un faux contact, ça veut dire silence, pas grésillement ou son qui saute de temps à autres. Ça va être fun.
A noter que j’ai déjà testé un DAC sur port micro USB pour android et que j’ai flingué l’engin en moins d’un mois.
+1
Le
28/09/2016 à
13h
15
C’est de la merde ! Encore une tentative de contrôle le flux audio et également de supprimé les puce audio sur les cartes mère. Sans parlé des perf déplorable que demande le décodage logiciel induit par l’USB…
Et je suis sur qu’ils y en a qui vont dire que l’obsolescence programmé n’est pas possible… et me répondront quel est le rapport avec le sujet… mais ça c’est ceux qui ne croient pas que les ingé sont capable d’une telle idée. " />
l’industrie culturelle en france a des arguments…. comment dire …. enfin vous comprennez ^^
Oui, et c’est un tout petit lobby par rapport aux vendeurs de pilules, de l’agroalimentaire ou de la finance… heureusement qu’il n’ont pas le pouvoir de ces derniers !
Le
03/10/2016 à
10h
22
Et quand je pense que notre président avait promis de fermer ce truc qu’est hadopi…
C’est une bonne idée, mais ça ne passera pas. Rien qu’au niveau logiciel ça va être compliqué d’imposer le fait de rester à niveau sans changer de hardware.
Les test ont été effecter avec du mais OGM résistant au roundup.
Tu me sorts encore un lien qui me prouve que tu ne te fais pas une idée par toi même. Se baser sur une étude scientifique c’est bien. Mais ces mêmes études mènent aussi à la création de saloperies comme le Roundup… et je ne donne que ce produit comme exemple, il y en a tant d’autres.
Donc, la meilleure arme est le bon sens et le principe de précaution. Tant qu’il y a un doute pour la santé on ne fait rien. Or là, c’est tout le contraire. Tu pouras me sortir toute les études que tu veux, pour moi j’ai l’opinion que je viens de te décrire. Et puis tu élude également tout ce que j’ai expliqué sur l’obsolécence programmé. C’est bien commode…
Aussi démago que ça peut paraitre, on pourrait me publier une étude scientifique sur les bienfaits de la peine de mort, ce n’est pas pour cela que je serait d’accord. D’où le “honnêtement”, qui fait appel à ton bon sens et a ton expérience perso, en tout cas j’espère que tu en as un minimum.
Le
29/09/2016 à
12h
36
C’était du dénigrement puisque son étude a été publiée après coup (publiée, retirée et republiée). Cela dit, n’importe quel lobby est prompt à faire le fouille merde quand il s’agit de campagne de dénigrement.
Séralini à de drôle de manière en termes de mœurs (religion, notamment), mais cela n’enlève rien à sa démarche de démontrer que certains OGM sont nocifs. Ça ne veut pas dire que sont étude est fausse. Orienté idéologiquement (et heureusement,) mais pas fausse.
C’est pour ça que je le cite ici, car il est l’exemple parfait de ce que l’on voit tout les jours en matière de désinformation. L’un dit blanc et l’autre noir mais chaque camps tente de dénigrer l’autre. Au final personne n’arrive à reconnaitre le vrai du faux puisque les experts sont tous plus ou moins sales.
Donc, pour l’obsolescence programmée c’est la même chose. Le terme ne peut pas être définit selon des personnes qui bossent dans le milieu industriel et qui soit on le nez dedans et ne vois pas les conséquences ou soit approuve ces méthodes. L’expérience que j’ai du matos informatique, m’a démontré plusieurs fois que cette méthode obsolescence programmée existe bien. Elle n’est pas généralisée et plutôt marginale si l’on tient compte de la globalité de ce qui est produit. En revanche elle est très présente dans le secteur de l’informatique et ses dérivés.
Il faut juste savoir la détecter. Par exemple on parle souvent de condensateurs mal placé et qui gonflent. Mais en réalité ces condo ont une mauvaise chimie de leur électrolyte. Une formule incomplète que les industriels se sont refilé. Rien a voir avec de l’obsolescence. Par contre, les téléphones, les imprimantes (surtout), les OS desktop (Windows) font clairement appel a des procédés pas très “fair” pour l’utilisateur final.
Être obsolète c’est être technologiquement dépassé, au sens propre devenu inutile que ça fonctionne encore ou pas. Un produit que l’on a rendu obsolète, ou plutôt “bloqué” pour que le prochain se vende. Étant collectionneur de vieux matos informatique, je connais très bien le terme. Et techniquement tout ce que j’ai n’est pas obsolète parce que la techno d’aujourd’hui n’est pas capable de reproduire a l’identique ce que faisaient certains engins des années 80⁄90. Si c’est obsolète (genre un terminal TTY Bull Questar utilisé dans les administration… ou un minitel) ce n’a donc plus lieu d’exister ou d’avoir une utilité –> la machine a écrire VS le PC.
En revanche rendre un appareil obsolète pour que le prochain se vende, c’est de obsolescence programmé et c’est ça qu’il faut combattre.
Le
29/09/2016 à
10h
33
D’une part tu ne peux pas faire confiance aux gens qui dénigrent quelqu’un d’autre. C’est une technique de lobbying très souvent utilisé (celle du doute) pour démonter toute affirmation qui ne va pas dans le sens du secteur concerné.
D’autre part les photos chocs sont juste des photos de résultats d’expérimentation.
Ce que l’on reproche surtout a l’étude de Séralini c’est d’avoir choisi des rats génétiquement modifiés pour contracter des tumeurs cancéreuses (j’en sais quelque chose la boite qui fournit ces rats est juste à coté de chez moi).
Or il se trouve qu’un organisme ne va pas forcément contracté une tumeur avec un produit cancérogène, ce qui biaise la recherche sur ce point quand tu veux prouver que telle substance est cancérogène. Quand tu veux prouvé qu’une substance est systématiquement (donc reproductible) cancérogène (et non pas probable) il faut que tu réalise ta recherche avec des rat qui sont plus sensibles a cela.
On l’a donc critiqué sur ce choix, mais en même temps si il avait choisi des rats “normaux” sont étude aurait aboutit à rien. C’est comme quand tu fais un sondage, ton échantillon doit être représentatif, tu ne peux pas interrogé au hasard (mes les spécialistes des stats expliqueront ça mieux que moi).
Le
29/09/2016 à
07h
51
OlivierJ a écrit :
Le Criigen, pas la source la plus fiable (pas lu l’article, après on peut gagner un procès mais ce n’est pas devant un tribunal que la science se décide), et surtout il n’y a pas eu besoin de dénigrement, il a suffit que des scientifiques qualifiés et honnêtes lisent sa publication pour se rendre compte des différentes erreurs commises, erreurs qui ont été expliquées dans diverses publications. Et ça a déjà été dit, Seralini n’est pas un simple chercheur indépendant de tout intérêt.
Tu tient le même discours que ce qui a été dit dans la campagne de dénigrement. Or si le monsieur se bas contre les OGM, ses intérêts sont où ? Parce que l’argent est du coté des producteurs d’OGM pas du coté des opposants.
Le
28/09/2016 à
08h
19
Cédric a écrit :
Euh non, Séralini est un branquignol bardé de conflits d’intérêts qui a réalisé une étude mal conçue et pleine de biais qu’il a fait publié dans un journal grand public avant relecture par les pairs.
Je ne sais pas trop quoi penser de votre remarque sur ce coup-là mais tout ce que Séralini a réussi à montrer c’est l’inculture en matière de science de la majorité des français et le fait qu’on peut se torcher le cul avec la déontologie et être porté en triomphe par les anti-OGM tout contents d’avoir trouvé quelqu’un en blouse blanche et qui pensait comme eux.
Seralini a été lavé de tout soupçon et a surtout fait l’objet d’une campagne de dénigrement massive. Une simple recherche le montre aisément.
Tu dis dans un premier temps que nous avons tort car nous comparons avec les produits d’antan et là tu fais la même chose ? Ta BJC-4200 était peut être plus chère ? Peut être que son mécanisme était plus solide ? Qui te dit qu’une imprimante d’aujourd’hui pourrait tenir 20 sans sans limitations logicielles ?
Parce que je compares quelques chose du même domaine, celui de l’informatique. Ca fait presque 25 ans que je pratique (et je ne ma balancer pas expert hien, mais on sais jamais…) et je sais très bien faire la différence entre les défauts du à une conception plus complexe (par exemple quand on est passé a la soudure sans plomb) et des défauts qui sont programmés.
Des BJC-4200 ne sont pas plus robustes, tu en trouve encore aujourd’hui des parfaitement fonctionnelles. Sauf qu’elles ne contiennent pas de firmware. le soft qui les pilote n’est pas interne, il dépend du driver. Par exemple certaines imprimantes, et je l’ai testé et reproduit, a défaut d’être un expert, ont un firmware qui dès que tu utilise des cartouches alternatives, qui va activé un compteur qui bloquera l’imprimante au bout d’un certains temps. Ce compteur s’active si tu n’utilise pas les bonne cartouche constaté chez HP avec un modèle multifonction (photo smart 5520).
J’ai dumpé et effacé ensuite l’eeprom. J’ai également effacé la nand pour y mettre un firmware vierge. Je lance une impression tout se passe bien ça imprime sans encombre. Je replace l’ancien firmware et le contenu de l’eprom.. oh magie ce imprime plus avec un code d’erreur totalement inconu.
Sur une une canon Pixma (la IP4200), le contrôle de la tête d’impression se désactive au bout d’un certains nombre de cycles. Le driver te dit que les cartouches sont mal insérée, et pourtant elles le sont bien. Tu changes la tête d’impression ça repart comme en 40. Tu remet l’ancienne tête et hop ça fonctionne a nouveau. C’est typique d’un système de sécurité détourné pour provoqué une panne intentionnelle. Parce que le consommateur va préféré dépenser 80€ dans une nouvelle imprimante plutôt que la même somme dans une nouvelle tête d’impression. c’est typique et flagrant d’une obsolescence programmée.
Séphi a écrit :
Il n’est pas question de “berger” là on ne parle pas de quelque chose de théologique qui nécessite plus une “expertise” philosophique qu’autre chose, on parle de quelque chose de maitrisé techniquement, et oui, on aura bien plus tendance à croire quelqu’un de calé techniquement que le blaireau du coin qui n’est pas d’accord car “il croit que…”
C’est le problème de nos jours, on débat sur des choses qui pourraient être répondues par des personnes calées techniquement, mais on n’est pas d’accord car on croit que c’est pas vrai….
C’est une qualification technique, ce sont des faits, des calculs, des études et des validations par preuve et par expérience, c’est pas de savoir si Djézuss a vraiment marché sur l’eau….
Tu parles de méthode scientifique mais le B-A BA de la méthode scientifique nécessite d’avoir un minimum de qualifications….
Je n’abordait pas ca de ce point de vue là. C’est juset que l’étiquette de l’expert c’est bien beau mais sur le Web ça ne veut rien dire. Je peux me balancé expert en n’importe quoi et ça passera. De toute façon je peux raconter n’importe quoi avec un jargon abscons et hop c’est dans la poche.
Les expert se font payer pour raconter ce qu’on leur dit de raconté. Seralini est un expert qui a fait une étude sur les céréale OGM et prouvé qu’elles étaient cancérogène. Et il s’est fait dézingué par des experts encore plus expert que lui. Du coup, le public, il veut bien faire confiance aux expert… mais lesquels dis moi ?
OlivierJ a écrit :
Tu assimiles le consensus scientifique à un berger ? Wahou il fallait oser. Si tu veux contester la théorie de la relativité, lance-toi, pour ma part je fais confiance à la communauté scientifique.
Enfin, ta dernière phrase et sa dose de complotisme, c’est le clou. " />
Allez, le second degré c’est pas trop ton tuc, avoues !
Le
23/09/2016 à
14h
12
Séphi a écrit :
Tu as des sources sur ces e-fuse ?
Je te laisse décrypté la chose, ce serait trop long de l’expliquer ici et honnêtement ce sujet me fatigue.
Personne ne cherche a savoir si c’est vrai ou pas, c’est tout l’un ou tout l’autre. Moi ces cas obsolescence quand tu brasses beaucoup de matos tu les rencontres très souvent. Et je fait bien la différence entre la panne fonctionnelle du a un défaut de conception (les condo gonflé par exemple) et la fausse panne provoqué par du soft. A force, tu ne te pose même plus la question.
Le
23/09/2016 à
14h
00
Séphi a écrit :
Et dans ton imprimante, qui te dit que le soft n’est pas là pour limiter l’usage de l’imprimante justement pour éviter que la mécanique ou l’électronique ne pète ou ne prenne feu, infligeant beaucoup plus de dégâts au consommateur qu’un simple “oh lala mon imprimante n’imprime plus…”
C’est aussi ça essayer de voir plus loin que le bout de son nez.
Mais le problème reste toujours le même, le consommateur voit que son produit ne marche plus, c’est tout.
Oui c’est le cas, mais pourquoi une BJC-4200 d’il y a 20 ans fonctionne encore alors que la moindre imprimante grand public d’aujourd’hui lâche en 1 an a peine ? Les imprimante d’il y a une 10ène d’année ne prenaient pas plus feu que celle d’aujourd’hui. Comme je l’ai expliqué dans mon commentaire sur le sacro saint article de Dr. Goulu, les sécurité sont détournés pour désactiver plus tôt que prévu les appareil.
OlivierJ a écrit :
Franchement, tu t’obstines dans ton idée, manifestement tu ne comprends pas ce qu’expliquent les articles que tu lis.
T’as lu en entier l’article sur la Théière Cosmique ?
Et j’en ai d’autres qui expliquent à leur façon la même chose.
Oui j’ai lu en entier, et on y trouve les mêmes erreurs a savoir un amalgame entre le low cost et le fait de limiter intentionnellement la durée de vie. c’est toujours le même biais avec les même argument et les même sources qui tournent en boucles. Tout ça est consanguin.
OlivierJ a écrit :
Non. On vit dans un monde informé et le consommateur est aussi responsable de ce qu’il achète. L’industriel propose et le consommateur dispose. Le consommateur n’est pas tout seul, il a des journaux et des associations de consommateurs, il a les forums en ligne, etc.
Naïveté tout ca…
fred42 a écrit :
Merci de confirmer ton absence de qualification pour parler du sujet. Je m’en doutais vu le niveau de tes interventions mais j’ai préférer te laisser une chance.
Ça m’évitera de perdre mon temps à vouloir échanger avec quelqu’un qui n’a que des croyances à opposer.
OlivierJ a écrit :
Ben 1) ton expertise m’a l’air assez limitée (pardon de le dire) et 2) c’est n’est UN type en blouse blanche qui dit tel ou tel chose, c’est la grande majorité des types en blouse blanche. Et je n’ai pas encore vu d’article argumenté capable de montrer que l’obsolescence programmée est plus qu’un phénomène tout à fait marginal (et encore, la définition n’est pas stricte).
Encore des gens qui ont besoin d’un berger pour les guidé. Belle démonstration d’indépendance d’esprit ! Et sinon mettez vous même le nez dans le cambouis, décompilez certain firmware renseignez-vous sur les efuse. Allez on prend du temps pour se défendre contre des pratiques douteuses. A moins que ce soit ces dernières qui payent votre salaire, d’où vos intervention ici…
Le
23/09/2016 à
13h
46
Cédric a écrit :
Je ne veux pas faire ma raclette mais rétorquer simplement “nan mais les arguments sont moisis et les exemples sont trop spécifiques” c’est un peu short.
Tout d’abord, vous n’apportez pas d’argument pour étayer votre position et ensuite le principe même d’un exemple c’est d’être spécifique (puisque chaque situation est unique).
Et répondre à un argument d’autorité (qui est aussi un avis d’expert puisque le Dr Goulu parle dans son domaine de compétence) par un autre c’est pas non plus au top niveau argumentaire.
(no offense)
Pas de problème " />
Mais je suis un peu fatigué de parler a des murs concernant ce sujet. Dans mon métier je la vois tous les jours cette obsolescence. Qu’elle soit soft ou hard. Comme je l’ai dit dans un commentaire ici même j’ai déja commenté l’article de Goulu que je trouve bancale car il fait l’amalgame entre le low cost et le réellement “programmé pour péter”.
Le phénomène de obsolescence programmé est nouveau et encore mal compris dans sa mise en œuvre. Et comme tout procédé industriel très segmenté il est surement mis en place par des personnes qui ne savent pas ce qu’elles font.
Le
23/09/2016 à
13h
41
Alors oui et non. Oui il vont concevoir un produit low cost, mais non ca ne veut pas dire que ce produit va duré moins longtemps.
Il faut bien différencier la conception qui va, selon son agencement, faire varier la durée de vie. Si l’objet est mal branlé –> panne qui arrivera très rapidement. Ce n’est pas de obsolescence programmée, mais juste un appareil fait à la va-vite qui ne respecte pas les contraintes spécifiques a sa constructions. Comme ton exemple de la TV, si les composants sont mal agencés, mal protégés car il manque d’autres composants de protection ou de filtrage c’est juste de la merde, pas de obsolescence programmé.
De obsolescence programmé. Là, l’appareil va être programmé pour s’arrêter selon des règles définies. Par exemple les efuse d’une XBox 360 que l’on active pour désactivé la console… à distance. Le nombre de cycle que l’on programme dans le firmware pour qu’une imprimante se bloque alors que les parties mécaniques et électronique sont en forme.
Le problème c’est que l’on fait l’amalgame entre un produit low cost mal conçu et l’obsolescence programmée qui consiste a désactiver un appareil même si celui-ci peut encore fonctionné. Mais ce fait ne se trouve que dans l’électronique et l’informatique… pour l’instant.
Le
23/09/2016 à
13h
04
OlivierJ a écrit :
Regarde le dernier lien indiqué sur la Théière cosmique.
Rien que ce passage :
Conclusion : La durée de vie n’est pas le seul critère qui fait d’un produit un bon produit ; les consommateurs recherchent d’autres caractéristiques, et toutes ne sont pas forcément conciliables, ce qui amène les fabricants à proposer des compromis. A nous, consommateurs, de choisir celui qui nous convient le mieux.
C’est totalement faux ! Le consommateur sur lequel on tape aisément, constate simplement que son produit ne fonctionne plus. Personne ici, visiblement n’a de connaissance en hardware ou quoi ?
Programmé un arrêt de fonctionnent se fait aisément. Les cas les plus fréquent son ceux des imprimantes. Il faut bien différencier un appareil low cost d’un appareil électronique qui n’est pas soumis à l’usure mais qui tombe quand même en panne. Dans le domaine informatique c’est devenu très courant. L’électronique en tant que tel est très robuste et ne tombe que très rarement en panne. C’est le soft qui rend obsolète. Et c’est sur ce point que l’obsolescence est programmé, justement parce que l’on intègre un duré limitée de vie a ces appareils.
Même la mécanique d’une imprimante ne lâche pas comme ça. c’est toujours un soucis logiciel qui bloque le fonctionnement.
Le
23/09/2016 à
12h
52
C’est très moyen, on y trouve les mêmes arguments pas très malin que dans l’article du Dr. Goulu et les exemple rpis sont trop spécifique et ne vois pas plus loin que le bout de leur nez su je puis dire.
Les pire exemple étant ceux de l’imprimante et des produit Apple complétement cité de la plaque avec en plus le culot d’accuser le consommateur de ne pas prendre ses responsabilités. c=C’est la faire à l’envers, c’est aux industriels de prendre leur responsabilité pas au consommateur qui ne sais pas toujours comment cela fonctionne et qui souvent se fait avoir par les campagne marketing.
A force d’être obligé d’être vigilant/responsable/écolo on finira aliéné et on ne peu pas se dire qu’il faut tout le temps vérifié les produit que l’on achète. l’honnêteté envers les acheteur voila qui devrait être obligatoire pour les industriels.
fred42 a écrit :
Je suis allé lire ton (pas si long que ça) commentaire.
Je vois que tu critiques le fait que l’auteur mette en avant ses 25 ans de R&D en tant qu’ingénieur.
Mais toi, quelle qualification et expérience professionnelle peux-tu mettre en avant afin d’âtre crédible ?
Ahh la fameuse expertise qui revient a chaque fois. Moi j’ai une blouse banche alors je peux dire sans vergogne que le gasoil ne donne pas le cancer, je peux faire passé n’importe quel médoc sur le marché et j’ai même le luxe de me faire payé par Total ou n’importe quel labo pour aller raconter, grâce a ma bouse banche, ce qu’ils veulent que je raconte…
Mon expertise a moi elle est dans la détection de fumistes de ce genre.
Le
23/09/2016 à
12h
23
Non mais tes liens moisis totalement subjectif je les connais par cœur. J’ai d’ailleurs longuement commenté le premier ou il y a de nombreux biais (et pas mal de commentaire le précises) et surtout c’est vu par le petit bout de la lorgnette.
C’est ignoré les miracles que l’on peu obtenir grâce a l’alliance magique de l’électronique et du soft. Il faut vraiment être aveugle ou naïf pour ne pas voir ce qu’il se passe. Je veux bien mettre ça sur de la méconnaisses en électronique, mais les fait sont là. Je le vit tous es jours (avec les imprimantes notament, mais pas que) au boulot.
Le
23/09/2016 à
10h
05
Ce qui est le plus énervant dans cette histoire c’est qu’il y a des gens qui accepte de programmer cette obsolescence. De gros truands qui devraient plutôt utiliser leur savoir pour autre chose que polluer la planète et vidé le portefeuille du bon citoyen (bon mais pas toujousr finaud quand même…).
Ghost In The Shell : la série / films la plus visionnaire ne matière de SF depuis presque 20 ans maintenant… et les américains vont tenter d’adapter la chose ? Eh bien ça va pas être folichon !
En fait le libre est censé être “gratuit” et dans un marché ca se vois tout de suite. et on va te dire : “hey oh, vous êtes aussi cher que votre concurrent mais vous ne proposer pas de Windows ?”
Alors que celui qui propose du Windows arrive a peu de chose près au même prix que celui qui propose du libre, mais avec la “sécurité” Microsoft en plus. Et c’est généralement ce qui fait penché la balance en faveur des soft de MS, le libre ayant un mauvaise réputation auprès des profanes.
Pourtant ayant installé des Ubuntu, les élèves ne font pas la différence entre un Win et un *nix et ils savent très bien où aller et où cliquer pour obtenir ce qu’ils veulent. Reste les profs qui sont un peut réfractaire (et les soft proprio qui ne fonctionnent que sous Windows), mais ça c’est juste une question d’éducation (sans mauvais jeu de mots).
1810 commentaires
À l’Assemblée, une proposition de loi pour des expérimentations du revenu de base
14/11/2016
Le 14/11/2016 à 14h 53
Le 14/11/2016 à 14h 20
Pfff, c’est bien gentil tout ça, mais ça reste de la daube. C’est 100e par mois ou rien, sinon c’est juste changer le nom du RSA c’est tout…
[Critique geek] Quand Oliver Stone cherche à nous conter Snowden, sous tous les angles
05/11/2016
Le 07/11/2016 à 11h 21
Je continu a dire que cette histoire de Snowden c’est la peur que l’on agite pour contrôler les masses. La réalité doit être bien moins dramatique… si réalité il y a…
Publicité et mannequin : la mention obligatoire « photographie retouchée » se précise
04/11/2016
Le 04/11/2016 à 09h 22
C’est très bien et surtout ça permet d’éviter le mensonge insidieux de la publicité.
Obsolescence programmée : des associations interpellent les candidats à la présidentielle
28/10/2016
Le 28/10/2016 à 14h 16
Le 28/10/2016 à 13h 23
Le 28/10/2016 à 10h 48
Le 28/10/2016 à 09h 18
Ils devraient appliqué cela au jeu vidéo également. En rendant obligatoire un mode réseau hors ligne pour les jeux ayant une option multi en ligne. Comme ça, lorsque les serveur sont coupés, on peut continuer à jouer. Et ce sera le retour du LAN !
Nintendo révèlera tout de sa console Switch le 13 janvier
27/10/2016
Le 27/10/2016 à 09h 20
Le 27/10/2016 à 08h 02
Nintendo aurait tout intérêt à rendre sa console compatible avec les Wiimote et les Gamepad de la Wii / WiiU.
Pour 60 Millions de Consommateurs, les clients SFR sont « noyés sous un déluge de problèmes »
25/10/2016
Le 25/10/2016 à 10h 34
Le but de la manœuvre est sans doute de revendre SFR à bas prix en tant qu’opérateur de seconde zone. La vache à lait n’a plus rien à donner et coute plus cher qu’elle ne rapporte. Donc autant dégouter ses utilisateurs pour qu’ils quittent d’eux même l’opérateur et ainsi le rendre revendable par la suite.
Switch : Nintendo dévoile sa nouvelle console, avec une puce Tegra de NVIDIA
20/10/2016
Le 20/10/2016 à 14h 56
Mouai…. ça fait peur de voir que toute la puissance de la chose est “dans” l’écran… reste a voir ce que ça va donner en termes de puissance d’affichage mais là j’ai un gros doute !
Liberté d’expression : une hiérarchie des garanties entre papier et web, journalistes et Mme Michu
18/10/2016
Le 18/10/2016 à 10h 33
Petit à petit notre société devient de plus en plus réactionnaire. Elle est pas belle la vie ? " />
Cartouches non-officielles : HP publie une mise à jour pour ses imprimantes, comment l’installer
17/10/2016
Le 17/10/2016 à 12h 40
Le 17/10/2016 à 12h 17
Obsolescence programmée… " />
Revue de presse : Mafia III, KO technique à New Bordeaux
11/10/2016
Le 11/10/2016 à 15h 41
Le 11/10/2016 à 14h 54
De toute façon Mafia 1 reste indétrônable. Et ce n’est pas cet épisode qui prouvera le contraire…
Surveillance hertzienne : quand le gouvernement justifie la quasi-absence d’encadrement
11/10/2016
Le 11/10/2016 à 15h 05
Vraie question : pourquoi devrait-on surveillé le hertzien ?
Et pourquoi devrait-on surveiller tout court ?
USB Audio Device Class 3.0 : l’USB Type-C pour remplacer la prise jack
28/09/2016
Le 03/10/2016 à 15h 40
Écoutes, ce n’est pas moi qui est conçu les carte son. Une chose est sur le PCM ne passe pas directement au DAC, il est traité d’abord par une puce spécialisé, bien distincte du DAC. Ce n’est peu être plus le cas aujourd’hui puisque l’on dispose d’une bonne réserve de puissance.
Concernant l’Amiga la puce Paula est un synthé PCM le fait qu’il est 4 canaux distinct le démarque d’un simple DAC. C’est d’ailleurs pas comparable aux puces qui composent les cartes son PC de la même époque. A part la Gravis qui se rapproche de ce que fait l’Amiga.
Comme je l’ai dit, sur les compatibles Sound Blaster, il y a 2 modes. Le mode normal ou c’est le DSP qui traite le PCM et le mode directe qui envois le flux PCM au DAC sans passer par le DSP. Toutefois en usage normal le mode directe n’est jamais utilisé.
Le 03/10/2016 à 10h 19
Le 30/09/2016 à 14h 51
Le 30/09/2016 à 13h 53
Le 30/09/2016 à 10h 41
Le 30/09/2016 à 07h 54
Le 29/09/2016 à 07h 41
Le 28/09/2016 à 13h 47
Le 28/09/2016 à 13h 25
Le 28/09/2016 à 13h 15
C’est de la merde ! Encore une tentative de contrôle le flux audio et également de supprimé les puce audio sur les cartes mère. Sans parlé des perf déplorable que demande le décodage logiciel induit par l’USB…
HP et les cartouches non-officielles : des imprimantes bloquées, une mise à jour arrive
30/09/2016
Le 03/10/2016 à 14h 32
Et je suis sur qu’ils y en a qui vont dire que l’obsolescence programmé n’est pas possible… et me répondront quel est le rapport avec le sujet… mais ça c’est ceux qui ne croient pas que les ingé sont capable d’une telle idée. " />
La Hadopi, la corde aux coûts
03/10/2016
Le 03/10/2016 à 12h 24
Le 03/10/2016 à 10h 22
Et quand je pense que notre président avait promis de fermer ce truc qu’est hadopi…
Au Sénat, un rapport envisage une durée de garantie légale de 4 ans pour les mobiles
30/09/2016
Le 30/09/2016 à 14h 11
C’est une bonne idée, mais ça ne passera pas. Rien qu’au niveau logiciel ça va être compliqué d’imposer le fait de rester à niveau sans changer de hardware.
LDLC change de nom et construit un nouveau siège social
30/09/2016
Le 30/09/2016 à 14h 07
Et sinon ils comptent baisser leur tarifs un jour ?
Pokémon Go : les ayant droits de l’image veulent faire payer Niantic
30/09/2016
Le 30/09/2016 à 07h 43
N’importe quoi…
Plus d’un an de retard pour le rapport gouvernemental sur l’obsolescence programmée
23/09/2016
Le 29/09/2016 à 14h 58
Les test ont été effecter avec du mais OGM résistant au roundup.
Tu me sorts encore un lien qui me prouve que tu ne te fais pas une idée par toi même. Se baser sur une étude scientifique c’est bien. Mais ces mêmes études mènent aussi à la création de saloperies comme le Roundup… et je ne donne que ce produit comme exemple, il y en a tant d’autres.
Donc, la meilleure arme est le bon sens et le principe de précaution. Tant qu’il y a un doute pour la santé on ne fait rien. Or là, c’est tout le contraire. Tu pouras me sortir toute les études que tu veux, pour moi j’ai l’opinion que je viens de te décrire. Et puis tu élude également tout ce que j’ai expliqué sur l’obsolécence programmé. C’est bien commode…
Aussi démago que ça peut paraitre, on pourrait me publier une étude scientifique sur les bienfaits de la peine de mort, ce n’est pas pour cela que je serait d’accord. D’où le “honnêtement”, qui fait appel à ton bon sens et a ton expérience perso, en tout cas j’espère que tu en as un minimum.
Le 29/09/2016 à 12h 36
C’était du dénigrement puisque son étude a été publiée après coup (publiée, retirée et republiée). Cela dit, n’importe quel lobby est prompt à faire le fouille merde quand il s’agit de campagne de dénigrement.
Séralini à de drôle de manière en termes de mœurs (religion, notamment), mais cela n’enlève rien à sa démarche de démontrer que certains OGM sont nocifs. Ça ne veut pas dire que sont étude est fausse. Orienté idéologiquement (et heureusement,) mais pas fausse.
C’est pour ça que je le cite ici, car il est l’exemple parfait de ce que l’on voit tout les jours en matière de désinformation. L’un dit blanc et l’autre noir mais chaque camps tente de dénigrer l’autre. Au final personne n’arrive à reconnaitre le vrai du faux puisque les experts sont tous plus ou moins sales.
Donc, pour l’obsolescence programmée c’est la même chose. Le terme ne peut pas être définit selon des personnes qui bossent dans le milieu industriel et qui soit on le nez dedans et ne vois pas les conséquences ou soit approuve ces méthodes. L’expérience que j’ai du matos informatique, m’a démontré plusieurs fois que cette méthode obsolescence programmée existe bien. Elle n’est pas généralisée et plutôt marginale si l’on tient compte de la globalité de ce qui est produit. En revanche elle est très présente dans le secteur de l’informatique et ses dérivés.
Il faut juste savoir la détecter. Par exemple on parle souvent de condensateurs mal placé et qui gonflent. Mais en réalité ces condo ont une mauvaise chimie de leur électrolyte. Une formule incomplète que les industriels se sont refilé. Rien a voir avec de l’obsolescence. Par contre, les téléphones, les imprimantes (surtout), les OS desktop (Windows) font clairement appel a des procédés pas très “fair” pour l’utilisateur final.
Être obsolète c’est être technologiquement dépassé, au sens propre devenu inutile que ça fonctionne encore ou pas. Un produit que l’on a rendu obsolète, ou plutôt “bloqué” pour que le prochain se vende. Étant collectionneur de vieux matos informatique, je connais très bien le terme. Et techniquement tout ce que j’ai n’est pas obsolète parce que la techno d’aujourd’hui n’est pas capable de reproduire a l’identique ce que faisaient certains engins des années 80⁄90. Si c’est obsolète (genre un terminal TTY Bull Questar utilisé dans les administration… ou un minitel) ce n’a donc plus lieu d’exister ou d’avoir une utilité –> la machine a écrire VS le PC.
En revanche rendre un appareil obsolète pour que le prochain se vende, c’est de obsolescence programmé et c’est ça qu’il faut combattre.
Le 29/09/2016 à 10h 33
D’une part tu ne peux pas faire confiance aux gens qui dénigrent quelqu’un d’autre. C’est une technique de lobbying très souvent utilisé (celle du doute) pour démonter toute affirmation qui ne va pas dans le sens du secteur concerné.
D’autre part les photos chocs sont juste des photos de résultats d’expérimentation.
Ce que l’on reproche surtout a l’étude de Séralini c’est d’avoir choisi des rats génétiquement modifiés pour contracter des tumeurs cancéreuses (j’en sais quelque chose la boite qui fournit ces rats est juste à coté de chez moi).
Or il se trouve qu’un organisme ne va pas forcément contracté une tumeur avec un produit cancérogène, ce qui biaise la recherche sur ce point quand tu veux prouver que telle substance est cancérogène. Quand tu veux prouvé qu’une substance est systématiquement (donc reproductible) cancérogène (et non pas probable) il faut que tu réalise ta recherche avec des rat qui sont plus sensibles a cela.
On l’a donc critiqué sur ce choix, mais en même temps si il avait choisi des rats “normaux” sont étude aurait aboutit à rien. C’est comme quand tu fais un sondage, ton échantillon doit être représentatif, tu ne peux pas interrogé au hasard (mes les spécialistes des stats expliqueront ça mieux que moi).
Le 29/09/2016 à 07h 51
Le 28/09/2016 à 08h 19
Le 23/09/2016 à 14h 41
Le 23/09/2016 à 14h 12
Le 23/09/2016 à 14h 00
Le 23/09/2016 à 13h 46
Le 23/09/2016 à 13h 41
Alors oui et non. Oui il vont concevoir un produit low cost, mais non ca ne veut pas dire que ce produit va duré moins longtemps.
Il faut bien différencier la conception qui va, selon son agencement, faire varier la durée de vie. Si l’objet est mal branlé –> panne qui arrivera très rapidement. Ce n’est pas de obsolescence programmée, mais juste un appareil fait à la va-vite qui ne respecte pas les contraintes spécifiques a sa constructions. Comme ton exemple de la TV, si les composants sont mal agencés, mal protégés car il manque d’autres composants de protection ou de filtrage c’est juste de la merde, pas de obsolescence programmé.
De obsolescence programmé. Là, l’appareil va être programmé pour s’arrêter selon des règles définies. Par exemple les efuse d’une XBox 360 que l’on active pour désactivé la console… à distance. Le nombre de cycle que l’on programme dans le firmware pour qu’une imprimante se bloque alors que les parties mécaniques et électronique sont en forme.
Le problème c’est que l’on fait l’amalgame entre un produit low cost mal conçu et l’obsolescence programmée qui consiste a désactiver un appareil même si celui-ci peut encore fonctionné. Mais ce fait ne se trouve que dans l’électronique et l’informatique… pour l’instant.
Le 23/09/2016 à 13h 04
Le 23/09/2016 à 12h 52
C’est très moyen, on y trouve les mêmes arguments pas très malin que dans l’article du Dr. Goulu et les exemple rpis sont trop spécifique et ne vois pas plus loin que le bout de leur nez su je puis dire.
Les pire exemple étant ceux de l’imprimante et des produit Apple complétement cité de la plaque avec en plus le culot d’accuser le consommateur de ne pas prendre ses responsabilités. c=C’est la faire à l’envers, c’est aux industriels de prendre leur responsabilité pas au consommateur qui ne sais pas toujours comment cela fonctionne et qui souvent se fait avoir par les campagne marketing.
A force d’être obligé d’être vigilant/responsable/écolo on finira aliéné et on ne peu pas se dire qu’il faut tout le temps vérifié les produit que l’on achète. l’honnêteté envers les acheteur voila qui devrait être obligatoire pour les industriels.
Le 23/09/2016 à 12h 23
Non mais tes liens moisis totalement subjectif je les connais par cœur. J’ai d’ailleurs longuement commenté le premier ou il y a de nombreux biais (et pas mal de commentaire le précises) et surtout c’est vu par le petit bout de la lorgnette.
C’est ignoré les miracles que l’on peu obtenir grâce a l’alliance magique de l’électronique et du soft. Il faut vraiment être aveugle ou naïf pour ne pas voir ce qu’il se passe. Je veux bien mettre ça sur de la méconnaisses en électronique, mais les fait sont là. Je le vit tous es jours (avec les imprimantes notament, mais pas que) au boulot.
Le 23/09/2016 à 10h 05
Ce qui est le plus énervant dans cette histoire c’est qu’il y a des gens qui accepte de programmer cette obsolescence. De gros truands qui devraient plutôt utiliser leur savoir pour autre chose que polluer la planète et vidé le portefeuille du bon citoyen (bon mais pas toujousr finaud quand même…).
Bandes-annonces : un Radin, 7 Mercenaires, Les Figures de l’Ombre et Ghost In The Shell
27/09/2016
Le 28/09/2016 à 08h 11
Ghost In The Shell : la série / films la plus visionnaire ne matière de SF depuis presque 20 ans maintenant… et les américains vont tenter d’adapter la chose ? Eh bien ça va pas être folichon !
Rejet du recours contre le partenariat entre Microsoft et le ministère de l’Éducation nationale
15/09/2016
Le 20/09/2016 à 08h 31
En fait le libre est censé être “gratuit” et dans un marché ca se vois tout de suite. et on va te dire : “hey oh, vous êtes aussi cher que votre concurrent mais vous ne proposer pas de Windows ?”
Alors que celui qui propose du Windows arrive a peu de chose près au même prix que celui qui propose du libre, mais avec la “sécurité” Microsoft en plus. Et c’est généralement ce qui fait penché la balance en faveur des soft de MS, le libre ayant un mauvaise réputation auprès des profanes.
Pourtant ayant installé des Ubuntu, les élèves ne font pas la différence entre un Win et un *nix et ils savent très bien où aller et où cliquer pour obtenir ce qu’ils veulent. Reste les profs qui sont un peut réfractaire (et les soft proprio qui ne fonctionnent que sous Windows), mais ça c’est juste une question d’éducation (sans mauvais jeu de mots).