Je comprends pas vraiment de quoi les gens se plaignent…
C’est une carte milieu de gamme parfaitement honorable, à un prix tout à fait honnête.
Elle ne s’est jamais voulue exceptionnelle en terme de performances mais en rapport perf/\(, ce qu'elle réussit haut la main pour le moment. Si on la considère équivalente à une 970 (ce que je trouve être un peu conservateur, je pense quand les drivers seront plus mûrs, elle devrait se situer fermement entre une 970 et 980), cela fait 75\) de différence d’après Newegg (pour la version 4Go).
Il ne faut pas oublier que tout le monde ne change pas de carte graphique tous les ans, ni n’achète le haut de gamme (je tourne toujours avec une 560Ti de 2011 qui fonctionne encore très bien et ne considère les nouvelles cartes que parce que je m’intéresse à la VR).
Reste à voir ce que va changer l’arrivée de la 1060, mais son placement prix risque d’être délicat.
Dans ce cas c’est déjà fait, les offres de FAI ont un débit minimum contractuel.
C’est indiqué dans la page 27 du contrat certes. Mais l’information est-elle facilement disponible au moment de faire le choix? Pour pouvoir faire jouer la concurrence, il faudrait qu’elle soit indiquée en information principale, dans la pub.
La concurrence n’y changera rien, elle est inexistante. Dès qu’un des FAI augmente ses prix pour X raison, les autres suivent les 3⁄4 du temps.
T’es un peu dur avec Free qui a quand même bien fait baisser les prix ces 10 dernières années…
Pareil que pour le réseau, ils sont responsables de la qualité du matériel qu’ils fournissent.
Ton FAI peut te garantir 1Gbps descendant, mais si le service en face bride à 120ko/s… Qui ne rempli pas sa part du contrat dans ce cas ? En cas de peering défaillant ou bridé ?
Je ne parle évidemment pas d’un débit pour tous les serveurs. Le débit doit être mesuré au dernier nœud de la boucle appartenant à l’opérateur.
Sans oublier les conditions environnementales. Si la fibre est peu perturbée par son environnement (à part les coups de pelleteuse, ça elle aime vraiment pas " />), le cuivre y est beaucoup plus sensible. Donc les FAI qui exploitent un réseau basé sur le cuivre (soit tous dans le cas du THD) ne peuvent garantir des débits sur une ligne dont la qualité varie d’une installation à l’autre.
Les opérateurs sont responsables de la qualité de leur réseau. S’ils ne sont pas capables de garantir un débit mini élevé avec un réseau cuivre, libre à eux de passer en fibre ou de subir la concurrence.
Et pour finir, la qualité (souvent inexistante) des Boites de FAI qui peut aussi brider le résultat.
Pareil que pour le réseau, ils sont responsables de la qualité du matériel qu’ils fournissent. Si la box est de mauvaise qualité, c’est à eux de régler le problème.
Raison pour laquelle ils vendent des “Jusqu’à” qui sont, accessoirement, des taux de synchro et non des débits.
Ou alors le FAI s’assure que la ligne est certifiée pour atteindre le débit contractuel… Mais derrière les coûts de raccordement exploseront.
Je ne pense pas que cela explose tant que ça, surtout si c’est réglementé et que les coûts sont transparents.
Edit: Après le niveau garantie de débit nécessaire pour un particulier n’est pas la même que pour un industriel. En industrie, les garanties peuvent monter à 99% du temps alors qu’un particulier pourrait se satisfaire d’un 80% beaucoup plus facile à réaliser techniquement et donc moins onéreux pour l’opérateur (mais qui reste une garantie, ce qui fait que l’opérateur ne peut pas faire n’importe quoi non plus)
Je doute que la population qui couine “bouh trop cher” à la moindre hausse de prix ait envie de payer le prix d’une ligne avec débit garanti.
On ne leur demande pas de garantir leur débit maximum non plus (pour un 200⁄100 ils pourraient garantir 100⁄50 par ex)…
Et si on les oblige légalement, ils y seront tous forcés ce qui, en théorie, devrait empêcher la hausse des prix grâce à la concurrent (en particulier NC qui devrait baisser ses prix ou réaligner ses offres)
NC (qui fait du FTTLa, pas du FTTB) est loin de proposer des offres commerciales équivalentes à ce que proposent les opérateurs FTTH. Quand ils seront capable de faire quelque chose d’équivalent à de la vraie fibre ailleurs que sur le papier, tant au niveau ping que débits (montants, surtout), on pourra réévaluer l’intérêt de la question. Pour l’instant, de facto, elle est réelle.
nikon56 a écrit :
sauf que dans les fait, les debit montants ne sont pas les memes, chez NC par exemple, c’est 5mb/s le montant….
Oui, c’est bien pour ça que je préfèrerais qu’ils garantissent les débits (montants ET descendants) ce qui permettrait de comparer les offres et de choisir en connaissance de cause.
Par exemple, l’offre NC 200⁄10 (ou 200⁄20 je me souviens plus) convient très largement à tous ceux qui n’ont pas de serveur local ou n’uploadent pas des distributions Linux tous les trois jours. Par contre, les obliger à annoncer les débits (et garantir un mini) permet de faire jouer la concurrence :
NC est moins cher qu’Orange mais j’ai moins de débit montant… Est ce que le tradeoff me convient?
nikon56 a écrit :
apres oui, ce n’est pas le cable qui limite, mais la politique commerciale, reste qu’entre un 100Mb FTTH et un 100Mb FTTB, ben t’a vraiment pas la meme prestation
Oui mais comme c’est pas lié directement à la techno, rien n’empêcherait NC de faire la même chose en FTTH…
Connaître la réalité technique derrière le terme “fibre” n’a que très peu d’intérêt à mon avis (d’autant que d’un point de vue technique, un FTTB est parfaitement capable d’assurer les mêmes performances qu’un FTTH… Ce n’est pas les 15 derniers mètres de câble qui vont changer quelque chose au débit).
Le gouvernement devrait plutôt se concentrer sur obliger a annoncer des débits montants et descendants contractuels ce qui permettrait une vraie comparaison des offres.
Et pour moi, la segmentation commerciale est dans la même problématique, vu qu’une offre premier prix en “vraie” fibre peut tout à fait être moins performante qu’une offre en “fausse” fibre.
L’important ce n’est pas comment on appelle la techno, c’est ce qu’elle permet de faire concrètement
C’est Miséricable mais tout de même pas à ce point la. " />
Pour le coup, je n’ai rien à redire sur la qualité de service internet (à Paris intra-muros).
Par contre je les retiens pour m’avoir pris pour un gland quand je me suis fait voler / cloner ma carte SIM et que je me suis pris 3000€ d’appels surtaxés en 2 jours (avec 6 appels simultanés 24h/24h)…
On a pas la preuve que ce n’est pas vous qui avez appelé " />
En attendant, c’est l’inverse qu’on constate et ce n’est peut-être pas tout à fait un hasard. À Caen tu as le choix entre la “fibre” Orange qui te propose du 1Gbps/250Mbps ou de la “fibre” Numéricâble à… 30mbps/1Mbps. Appeler ça de la fibre, c’est quand-même du foutage de gueule. Autant appeler l’ADSL “Fiber To The NRA” dans ce cas et dire que c’est de la fibre aussi… Et le 56k ? “Fiber to the backbone”. C’est de la fibre ! Si si !
Le fait que ce soit de la fibre ou du câble en poil de cul de singe, dans le fond on s’en fout!
Les info importantes sont les débits et ping.
Si avec du 56k tu avais des meilleurs débits qu’avec la fibre, tu t’en tamponnerais le modem avec une daurade de la fibre.
Je préférerais grandement qu’ils soient obligés contractuellement de respecter les débits annoncés.
Je reste convaincu que ça n’apporte pas grand chose comme information.
Pour moi une mention claire des débits montants, descendants et du ping attendus est bien plus intéressant (et surtout un engagement contractuel sur des valeurs mini (ou maxi pour le ping) ).
Si on va dans ce sens, qu’est-ce qui est mieux du 30Mbps en “vraie” fibre ou 200Mbps en “fausse” fibre?
Est-ce que madame Michaud (Histoire de pas taper toujours sur madame Michu) va comprendre la différence?
D’autant plus que du côté technique, le FTTB n’est pas vraiment plus limitant que le FTTH… Sauf mutualisation de goret sur la partie cuivre (mais du coup c’est plus lié à la réalisation qu’à la techno). Et si les débits sont clairement annoncés et contractuels, si ça marche moins bien que prévu, le consommateur peut avoir un recours.
Dans les 2 cas, c’est le vent qui se charge du “retraitement”
La différence est que, dans le cas d’une usine on a un point d’émission, pas des millions. Donc si on veut installer une unité de retraitement, on peut.
Drepanocytose a écrit :
Non, ce n’est pas plus facile à confiner du tout, mais alors pas du tout.
Aucun confinement ne dure des millions d’années, arrêtez tout simplement de rever.
Le CO2 se sequestre très bien (mais c’est cher, et c’est là le “souci”), les métaux lourds aussi. Et quand le confinement pose des problèmes, bah on déconfine facilement pour reconfiner. Amuse toi à faire ca avec des déchets ultimes vitrifiés…
Tant que tu le pièges à la sortie de cheminée, oui (par contre ça te fait pas mal d’effluents liquides…) . Le retraiter dilué dans l’atmosphère, j’émets des doutes. Au moins les déchets ultimes, on sait où ils sont…
Drepanocytose a écrit :
Eh non, le proédé PUREX a ses limites, on ne revalorise pas une grande partie des déchets les plus actifs. On les laisse décroitre dans un coin si ca ne dure pas longtemps, et le reste on file ca à nos arrières petits enfants.
Ce qu’on récupère, c’est l’U235 qui reste (parce qu’il en reste) et le plutonium, et on sépare qques actinides. Le reste, on ne sait pas faire.
Et d’ailleurs, le MOX on ne le retraite qu’un certain nombre de fois.
Je ne dis pas que c’est possible avec les techniques actuelles. Ce que j’en dis c’est qu’il n’est pas complètement inenvisageable.
Ne te méprends pas, je ne suis pas en train de dire que le nucléaire est parfait, mais que c’est actuellement une des rares alternatives viables pour produire l’énergie pour le niveau de vie que nous avons actuellement. Je suis parfaitement en phase qu’il faudrait réduire notre consommation et amorcer une décroissance comme tu disais dans un commentaire précédent.
C’est surtout absolument pas la même pollution du tout. C’est incomparable.
Je sais que le pronucléaires aiment bien comparer leur rejets de CO2 aux autres centrales : ca evite de penser qu’on créé des masses d’actinides et autres joyeusetés qui dureront des millions d’années. Entre autres choses.
D’un autre côté, les déchets radioactifs sont plus faciles à confiner que les rejets atmosphériques des autres centrales (CO2, métaux lourds, sulfures… Sans compter que le charbon est aussi radioactif - certes pas dans le même ordre de grandeur).
De plus, j’imagine (espère?) que l’on trouve des moyens pour revaloriser les déchets nucléaires (qui sont toujours énergétiques, c’est bien leur problème) comme on a pu partiellement le faire avec le MOX.
Ca ne fera que retarder le problème, si déjà on arrive à créer les centrales à fusion, et ce n’est pas gagné..
La crise énérgétique ne se résoudra dans un futur proche suelement et seulement si on commence à reflechir serieusement à la decroissance.
Théoriquement, vu l’abondance du deutérium dans les océans, cela repousserait le problème pour quelques centaines de millions d’années (au niveau de consommation actuel).
Par contre, comme tu le dis si bien, les centrales à fusion c’est loin d’être gagné…
Pour ce qui est de la décroissance, j’ai bien peur que l’on arrive à une catastrophe (ou une guerre) avant que les gens l’acceptent.
Le problème de la grande majorité des énergies renouvelables est leur caractère intermittent (qui en général coïncide très mal avec le pic de demande).
Si l’on couple cela au fait que l’on stocke très mal l’énergie électrique (cela se fait essentiellement via du relèvement d’eau en hydroélectrique qui, outre les problèmes intrinsèque pour la faune et la flore locale, a un mauvais rendement).
L’intérêt de la voiture électrique est que la la production d’énergie se fait de façon centralisée contrairement aux voitures à moteur thermique. Comme toute l’énergie est produite au même endroit, toute la pollution est également produite au même endroit ce qui permet, idéalement, de la retraiter plus facilement (il est plus envisageable de traiter des fumées de combustions à la sortie des cheminées d’une centrale thermique plutôt qu’au niveau de chaque pot d’échappement de chaque véhicule).
De toute façon, je crains que la crise énergétique ne sois pas résolue avant le développement de centrales à fusion…
Un factory reset ne servira à rien si le FBI connaît la clé de chiffrement. Les fichiers effacés sur un support mémoire peuvent toujours être récupérés, à moins de procéder à un effaçage spécifique (données aléatoires inscrites dans l’espace libre sur plusieurs passes), ce qui peut être très long comme processus suivant la taille du support.
Hmm, c’est vrai pour le stockage magnétique. Après effacement, le magnétisme résiduel peut encore subsister et être (partiellement) récupéré avec des outils (d’où les écritures successives pour effacer le magnétisme résiduel).
Par contre pour un support flash, je doute que ce soit encore le cas.
L’intérêt que je vois c’est qu’elle puisse se recharger toute seule en intérieur (avec l’éclairage artificiel et/ou la lumière des fenêtres).
Je laisse très souvent mon Kindle posé sur une table plusieurs semaines quand je ne m’en sers pas… Et au moment où je souhaite lire un truc, la batterie est déchargée " />. Du coup, si elle peut prendre un peu de charge, ça réglerait ce problème (pour peu que je ne pose pas la liseuse sur le dos, ou que je ne l’enfouisse pas sous une tonne de paperasse…)
Pour une utilisation uniquement en plein soleil par contre, je suis dubitatif comme toi
Il faut réduire la voilure en proposant des choses innovantes comme des outils qui s’auto alimente en énergie. La moindre techno dans ce salon fonctionne au lithium, USB, etc.. et j’en passe.
Autant je suis assez en phase sur le reste de ton commentaire, autant mon côté scientifique sent poindre la violation des deux premiers principes de la thermodynamique " />
Ou alors je ne saisis pas à quoi tu veux faire référence… (alimentation par panneaux solaires?)
Quand je vais dire à ma maintenance process et à mes fournisseurs demain que ce sont des niais qui utilisent encore le RJ45 alors qu’ils pourraient opérer en qbits, je sens qu’on va rigoler " />
Je veux voir la vidéo " />
ledufakademy a écrit :
SI : on appelle cela l’intrication quantique, c’est passionnant comme sujet.
Je ne suis pas spécialiste en physique quantique (ou même en physique des particules), mais si je comprends bien, l’intrication et la téléportation quantique ça n’est pas exactement ça.
Les deux particules intriquées sont créées au même endroit et doivent être déplacées physiquement d’un endroit à un autre.
Ensuite, cela ne permet pas de transporter d’information. La téléportation quantique, pour ce que j’en comprends, permet de recréer l’état d’une des deux particules à partir d’expériences réalisées sur l’autre. Mais pour ce faire, les résultats de l’expérience réalisées sur la première particule doivent être communiquées à la personne en charge de la seconde particule (donc par moyen de communication classique), sans quoi il est incapable de savoir quoi faire avec sa particule.
De plus, l’expérience est destructive, donc à la fin le détenteur de la première particule se retrouve avec une particule quelconque et le second se retrouve avec une particule identique à l’état initial de la première particule.
Je t’assure que le pilotage de process se fait essentiellement avec du fil de cuivre.
Ceci dit, la techno quantique ça te transmet pas magiquement une information d’un point à un autre sans lien physique, vois cela plus comme un système de cryptage plus performant que ce que l’on peut avoir à l’heure actuelle.
Normalement un système SCADA est là pour piloter l’usine, pas pour envoyer des infos confidentielles à l’autre bout du monde…
Et le fait que les paramètres process du site puissent être lus à plusieurs km de distance sans que personne ne puisse les intercepter n’empêchera pas que l’opérateur sur son SCADA dans la salle de contrôle ouvre une pièce jointe avec un virus dedans. " />
Ma technique anti-démarchage : C’est un numéro que je ne connais pas, je ne réponds pas (sauf evidemment si j’attends un appel). Si c’est important, ils laisseront un message.
Sur le papier, si le call center représente une société présente en France (ce qui pourrait devenir obligatoire pour les sociétés étrangères) c’est elle qui va douiller… Peu importe où est situé le call center.
D’un côté ça chouine “gnagna espionnage” “gnagna vie privée important” et de l’autre ça ouvre le cul et la bouche en coeur à tous ces contrebandiers de données personnelles.
75 commentaires
Le 04/07/2016 à 16h35
Je comprends pas vraiment de quoi les gens se plaignent…
C’est une carte milieu de gamme parfaitement honorable, à un prix tout à fait honnête.
Elle ne s’est jamais voulue exceptionnelle en terme de performances mais en rapport perf/\(, ce qu'elle réussit haut la main pour le moment. Si on la considère équivalente à une 970 (ce que je trouve être un peu conservateur, je pense quand les drivers seront plus mûrs, elle devrait se situer fermement entre une 970 et 980), cela fait 75\) de différence d’après Newegg (pour la version 4Go).
Il ne faut pas oublier que tout le monde ne change pas de carte graphique tous les ans, ni n’achète le haut de gamme (je tourne toujours avec une 560Ti de 2011 qui fonctionne encore très bien et ne considère les nouvelles cartes que parce que je m’intéresse à la VR).
Reste à voir ce que va changer l’arrivée de la 1060, mais son placement prix risque d’être délicat.
Le 06/04/2016 à 14h56
Moi je trouve la technologie beaucoup plus prometteuse et disruptive que le motion gaming.
Reste à voir si l’adoption sera suffisante pour motiver les développeurs.
Le 30/03/2016 à 15h57
Le 29/03/2016 à 06h51
Le 29/03/2016 à 06h47
Le 25/03/2016 à 16h19
A mon avis, c’est un mauvais débat.
Connaître la réalité technique derrière le terme “fibre” n’a que très peu d’intérêt à mon avis (d’autant que d’un point de vue technique, un FTTB est parfaitement capable d’assurer les mêmes performances qu’un FTTH… Ce n’est pas les 15 derniers mètres de câble qui vont changer quelque chose au débit).
Le gouvernement devrait plutôt se concentrer sur obliger a annoncer des débits montants et descendants contractuels ce qui permettrait une vraie comparaison des offres.
Et pour moi, la segmentation commerciale est dans la même problématique, vu qu’une offre premier prix en “vraie” fibre peut tout à fait être moins performante qu’une offre en “fausse” fibre.
L’important ce n’est pas comment on appelle la techno, c’est ce qu’elle permet de faire concrètement
Le 25/03/2016 à 16h01
Le 25/03/2016 à 15h56
Entièrement d’accord, la techno on s’en fout.
Par contre, j’irai plus loin et je les forcerais à annoncer des débits minimum en plus du maximum (et des pings maxi aussi).
Le maximum, c’est bien, ça fait de la pub.
Le minimum, ça engage…
Le 25/03/2016 à 15h28
Le problème est que le terme “fibre” est purement marketing.
Sont regroupés sous le même terme des offres très différentes en terme de débit (et ce même en ne prenant en compte que les FTTH).
Le 25/03/2016 à 15h07
Le 25/03/2016 à 15h02
Le 25/03/2016 à 14h56
Le 25/03/2016 à 14h52
Je reste convaincu que ça n’apporte pas grand chose comme information.
Pour moi une mention claire des débits montants, descendants et du ping attendus est bien plus intéressant (et surtout un engagement contractuel sur des valeurs mini (ou maxi pour le ping) ).
Si on va dans ce sens, qu’est-ce qui est mieux du 30Mbps en “vraie” fibre ou 200Mbps en “fausse” fibre?
Est-ce que madame Michaud (Histoire de pas taper toujours sur madame Michu) va comprendre la différence?
D’autant plus que du côté technique, le FTTB n’est pas vraiment plus limitant que le FTTH… Sauf mutualisation de goret sur la partie cuivre (mais du coup c’est plus lié à la réalisation qu’à la techno). Et si les débits sont clairement annoncés et contractuels, si ça marche moins bien que prévu, le consommateur peut avoir un recours.
Le 25/03/2016 à 13h30
Peut être est-il temps de réfléchir à d’autres modèles économiques?
Ce n’est pas parce que le modèle actuel a très bien fonctionné pendant des (dizaines d’) années qu’il n’est pas possible de le remettre en question.
Le 25/03/2016 à 09h46
Le 25/03/2016 à 09h38
Après lecture des commentaires, je ne sais plus de quoi parle la news
" />
Le 24/03/2016 à 15h04
“Il faudra au minimum un DS411+, DS412+, DS713+, DS415+ et DS216+.” J’ai un 712+…
" />
Le 24/03/2016 à 08h39
Ils ont fait peur à des gens >> Terroristes >> Déchéance de nationalité
Le 16/03/2016 à 16h44
Le 16/03/2016 à 12h37
Le 16/03/2016 à 12h28
Le 16/03/2016 à 12h18
Le problème de la grande majorité des énergies renouvelables est leur caractère intermittent (qui en général coïncide très mal avec le pic de demande).
Si l’on couple cela au fait que l’on stocke très mal l’énergie électrique (cela se fait essentiellement via du relèvement d’eau en hydroélectrique qui, outre les problèmes intrinsèque pour la faune et la flore locale, a un mauvais rendement).
L’intérêt de la voiture électrique est que la la production d’énergie se fait de façon centralisée contrairement aux voitures à moteur thermique. Comme toute l’énergie est produite au même endroit, toute la pollution est également produite au même endroit ce qui permet, idéalement, de la retraiter plus facilement (il est plus envisageable de traiter des fumées de combustions à la sortie des cheminées d’une centrale thermique plutôt qu’au niveau de chaque pot d’échappement de chaque véhicule).
De toute façon, je crains que la crise énergétique ne sois pas résolue avant le développement de centrales à fusion…
Le 08/03/2016 à 14h50
Ah c’est sûr qu’un “formatage” rapide, c’est plus simple à récupérer qu’un vrai formatage!
" />
Le 08/03/2016 à 14h17
Le 01/03/2016 à 12h27
Le 23/02/2016 à 11h33
L’intérêt que je vois c’est qu’elle puisse se recharger toute seule en intérieur (avec l’éclairage artificiel et/ou la lumière des fenêtres).
" />. Du coup, si elle peut prendre un peu de charge, ça réglerait ce problème (pour peu que je ne pose pas la liseuse sur le dos, ou que je ne l’enfouisse pas sous une tonne de paperasse…)
Je laisse très souvent mon Kindle posé sur une table plusieurs semaines quand je ne m’en sers pas… Et au moment où je souhaite lire un truc, la batterie est déchargée
Pour une utilisation uniquement en plein soleil par contre, je suis dubitatif comme toi
Le 23/02/2016 à 10h39
D’après ce que j’ai pu voir sur Reddit, le CPU est assez peu limitant (i5-2500K + 980 Ti = score de 11)
" />
Moi j’ai même pas tenté le test… Je suis sûr que ma 560 Ti est à la rue
Le 23/02/2016 à 10h23
Très intéressant, je ne connaissais pas cette marque…
J’en prends bonne note pour quand je voudrai remplacer mon Kindle :)
Le 22/02/2016 à 08h08
Le 18/02/2016 à 10h29
A quand l’application DeGmailify? Ca me serait assez utile
" />
Le 15/02/2016 à 11h20
Le 15/02/2016 à 10h47
S’ils arrêtaient de refaire le même jeu à chaque fois aussi… Au bout d’un moment ça se voit
" />
Le 15/02/2016 à 09h08
Où est le smiley “tinfoil hat” quand on a besoin de lui?
" />
" />
De toute façon, l’espace c’est une invention de la NSA!
(D’ailleurs, vous avez remarqué comme NASA et NSA n’ont qu’une lettre de différence? #conspiration)
Et en plus, sur la photo, l’angle de l’ombre du caillou devant la maison de la concierge du scientifique elle fait pas le bon angle!
Le 15/02/2016 à 08h53
Et avec les technologies éprouvées dans les années 90 (donc des années 80)
" />
Le 15/02/2016 à 07h46
“Je comprends pas, ça marchait dans Kerbal Space Program”
" />
Le 15/02/2016 à 07h06
Non, tu ne rêves pas, c’est une catastrophe pour l’utilisateur si ça passe!
Le 10/02/2016 à 08h05
Le 04/02/2016 à 17h07
Méfie toi, même si tu compiles et que ça exécute, il reste toujours des warnings dont t’arrives pas à te débarrasser
" />
Le 29/01/2016 à 09h01
Le 28/01/2016 à 16h44
Ben c’est un peu mon boulot, donc …
Je t’assure que le pilotage de process se fait essentiellement avec du fil de cuivre.
Ceci dit, la techno quantique ça te transmet pas magiquement une information d’un point à un autre sans lien physique, vois cela plus comme un système de cryptage plus performant que ce que l’on peut avoir à l’heure actuelle.
Le 28/01/2016 à 16h27
Normalement un système SCADA est là pour piloter l’usine, pas pour envoyer des infos confidentielles à l’autre bout du monde…
" />
Et le fait que les paramètres process du site puissent être lus à plusieurs km de distance sans que personne ne puisse les intercepter n’empêchera pas que l’opérateur sur son SCADA dans la salle de contrôle ouvre une pièce jointe avec un virus dedans.
Le 28/01/2016 à 16h15
Tu ne voudrais pas que les journalistes soient payés en plus! Manquerait plus que ça…
" />
Il devraient même nous payer pour la productivité perdue au boulot
Le 28/01/2016 à 16h12
La techno de cryptage et la protection contre les cyberattaques ça n’a pas vraiment de corrélation.
" />
Et le jour où je verrai un système de crypto quantique sur un SCADA…
Le 28/01/2016 à 15h10
Ma technique anti-démarchage : C’est un numéro que je ne connais pas, je ne réponds pas (sauf evidemment si j’attends un appel). Si c’est important, ils laisseront un message.
Le 28/01/2016 à 13h49
Sur le papier, si le call center représente une société présente en France (ce qui pourrait devenir obligatoire pour les sociétés étrangères) c’est elle qui va douiller… Peu importe où est situé le call center.
Le 28/01/2016 à 12h37
Voilà une news qui m’aurait fait m’abonner si la ligne éditoriale et le contenu ne m’y avait pas déjà poussé!
Le 27/01/2016 à 18h10
Je me faisais la même réflexion.
Essayer de se démarquer de la concurrence, c’est bien… Mais avec un produit utile, c’est mieux!
Le 27/01/2016 à 09h28
Même savoir que Google sache où et à quels horaires je travaille, quel chemin je prends pour rentrer… Ca me dérange profondément.
J’en reviens sur l’analyse de Korben qui résume très bien mon ressenti…
Le 27/01/2016 à 09h18
Le 26/01/2016 à 10h24