votre avatar

mango

est avec nous depuis le 29 mai 2003 ❤️

213 commentaires

Le 11/04/2016 à 02h 41

Je suis sur le 5.1.1 avec mon Note premier du nom et je n’ai pas vu de grosse différence à l’utilisation normale du tel. Et même mon Note 4 était sur le 5.

Maintenant si on est Geek et on avoir toujours le dernier, c’est un choix.

Il faut savoir cependant, si on utilise le stilet du Note il ne faut pas quitter les Roms stocks, car les applis proposées ne sont pas à la hauteur de celles proposées par Samsung. Et même l’applis appareil photo! Peut-être le 13 de Cyanogenmod, c’est amélioré, C’est à voir!

Le 07/04/2016 à 23h 53

Pour le Nexus 5X, il faudrait leur laisser le temps de mettre en place. C’est un produit Google et il travaille sur une base Google. Donc, il y a une chance de voir arriver cette Rom spécifique signé Cyanogenmod, un jour.

 Voilà quelques liens à visiter, si ce n’est pas encore fait, dans l’attente!

 http://forum.xda-developers.com/nexus-5x

http://www.androidbeat.com/2016/01/5-best-custom-roms-for-google-nexus-5x/

 developers.google.com Google https://androidmtk.com/download-google-nexus-stock-rom-models

Par expérience, je sais que les surcouches Samsung, par exemple, sont plus efficaces que les apps intégrés de Google. En effet, en installant une Rom Résurrection, basé sur Cyanogenmod 12, les photos étaient moins bonnes et l’utilisation de certaines apps était plus pénible. D’autres inexistantes! J’ai perdu ma commande vocale dans certain cas.

Mais bon! C’est un choix à faire! Avoir rien ou être à jour en sacrifiant un peu.

Si on s’y connaît, on peut cependant, réintroduire certaines apps qui fonctionnent mieux que les intégrées Google. Faire une sauce perso et surtout faire profiter la communauté internet, de ton savoir.

 

 

Le 07/04/2016 à 22h 12

Il faut aller et chercher sur des sites connus et si on a un doute, on peut aussi faire une recherche sur le site ou sur le logiciel ou firmware ou driver qu’il propose.  Avant même de les ouvrir ou les télécharger.

Le 07/04/2016 à 21h 20

C’est vrai mais malheureusement, c’est un réflexe négatif qui nuit à tout le monde, au niveau de la sécurité. Les fabricants en profite pleinement pour ne pas mettre leurs produits à jour et les pirates et autres pour voler vos données.

Le 06/04/2016 à 02h 22

Franchement, tu as une multitude de possibilités avec androïd après que le constructeur de ton appareil t’ai laissé tombé. Tu as AOSP et multiple autres ROMS modifiées que tu pourras installer toi-même sans trop de difficultés.

Il faut simplement savoir lire tout d’abord, être attentif et patient. Savoir manier, un peu, un ordi est un plus.

On a vraiment pas besoin de ces lâcheurs mais si on peut les forcer à suivre leurs produits au moins sur 3 ans, pour toutes les mises à jour, et sur 5 ans, les mises à jour de sécurité, ce serait déjà çà de gagner, surtout pour ceux qui ne peuvent pas faire leur mise à jour eux-même.

Les clients Samsung et autres, associez-vous pour être plus efficace, et, répandez vos revendications sur les sites spécialisés (Téléphonie) et les Télévisions. Il faut être visible. Les journalistes savent bien le faire,çà.

Le 06/03/2016 à 07h 24

Bonjour,

Et pour mon GN1, comment çà marche? Je peux l’enclancher sans trop de perte? J’ai Cyanogènemod 12 version Remix_Résurrection 5.5.9.

Le 10/02/2016 à 02h 02

La censure, c’est la censure et je suis d’accord qu’il en soit ainsi. Il y a aucune raison qu’on se salisse les yeux à regarder ce que l’on ne veut pas voir.

Quand on veut voir quelqu’un ou quelque chose de particulière, on va où cette personne ou cette chose se trouve. Ce n’est pas l’inverse.

Quand ton pied rencontre une crotte sur ton chemin, tu n’es pas content, n’est-ce pas. Tu ne dis pas merci à celui qui l’a laissé, alors que c’est naturel pour lui pourtant.

Son cabinet, c’est partout.

Le 10/02/2016 à 01h 45

Je croyais que Firefox avait déjà un bloqueur natif. Il suffisait de le paramétrer.

Je retiens cependant la combinaison “Firefox + µblock Origin”. Je ne connaissais pas ce dernier. J’utilise “Adblock” sur Firefox, le plus souvent.

 

Le 05/02/2016 à 04h 47

Oh! Non! Un compte gmail n’est pas obligatoire. Tu peux choisir, un courriel déjà existant ou en créer où tu veux, mais pour aller sur le play store de Google, il n’y a pas d’alternatif, obliger d’ouvrir un compte.

Tu peux aussi utiliser un navigateur différent. Depuis le 5.1.1, Google a pensé un peu plus à la sécurité et le 6, encore plus. Je pense, BB profitera de ces deux plateformes pour se projeter. Cela fait un moment qu’il lorgne Android et tente de porter leurs différentes applications. Il n’y a pas de raisons qu’il n’y arrive pas, vu qu’il va concentrer les ressources du dév OS sur la sécurité Android, dans un premier temps, pour rattraper le retard.

Moi, j’aimerais qu’il réussisse, sinon j’aurais qu’un alternatif, le Note 6 avec batterie amovible et carte SD,  naturellement.

 

Le 04/02/2016 à 15h 14







tic tac a écrit :



Si c’ était pour retrouver sur Android tout ce qui me plaît avec BB10 et mon Q10 je ne serais pas contre (surtout si en plus, je gagne tout le catalogue d’ app d’ Android).



Mais, en l’ état actuel, la transition avec le Priv ne permet pas de retrouver ses marques:





  • problème de finition (conception) avec le dos de la coque là où, chez BB depuis le Bold jusqu’au Passport, de ce point de vue, on est rarement déçu du soin apporté à la conception de leur terminaux.



  • Hub incomplet (pourtant la Killer Feature de BB), là où sous BB10 tout s’ ouvre et s’ utilise depuis celui ci, le Hub sous Android n’ unifie pas encore toutes les communications (l’ app message par exemple, je pense, apparemment s’ ouvre à part).



  • le système de sécurité tant vanté ne liste que les interactions possibles des différentes app mais sans réelles possibilités de les modifier (apparemment possible avec la MAJ Android 6.0 qui le permet).



  • lenteur générale de l’ OS (certains tests se contredisent mais dans l’ ensemble il s’ agit pour moi d’ une régression par rapport à BB10 surtout si on compare la fiche technique hardware du Priv et d’ un Q10) et la preuve surtout, que QNX reste une bombe bien loin de l’ usine à gaz Android.



  • autonomie en retrait. Pour moi un des points noirs de ce smartphone aggravé par le fait que la batterie est inamovible et que, contrairement aux iPhones, LG G4 et autres Samy Galaxy, des coques batteries pour pallier à celà, pour les derniers Blackberry, c’ est plutôt rare voire inexistant (j’ en ai trouvé une pour mon Q10 mais chez les spécialistes genre Anker ou autres Zéro Lemon c’ est le néant total).



  • etc



    En gros, et pour résumer, si Android est désormais l’ avenir de Blackberry et si le Priv représente le futur de la firme et bien, on peut dire que l’ essai est à moitié raté (ou à moitié réussit) et manque vraiment d’ optimisation.



    La question se pose alors de soit choisir un BB10 pur et dur comme le Passport ou de prendre chez Android ce qui est déjà optimisé (en sachant que les futures S7 et G5 sortent fin de ce mois).



    Je préfère donc attendre la sortie du future BlackBerry Vienna sous Android pour voir si BlackBerry rectifie le tir car en l’ état, le Priv est vraiment bien loin de ce que moi j’ attend de la frime canadienne (et si l’ avenir c’ est cela, cela va être dur, clavier ou pas, de se faire une place au milieu des Samsung, LG, Huawei, Sony et compagnie).



    Au moment où BB10 va fêter ses 3 ans, je trouve dans cet abandon, un sentiment d’ échec teinté de pragmatisme mais, un véritable échec quand même non pas sur l’ efficacité réelle de QNX et BB10 mais sur la capacité de BlackBerry à défendre et vendre ses solutions.





    Le choix est tout d’abord commercial, me semble-t-il! Et c’est une entreprise commerciale.





    Mithrill a écrit :



    Par défaut oui, mais perso je n’ai ni bouton physique ni virtuel (que je réactive visible par période suivant mon usage) , mais Android manque d’ergonomie sur pas mal de points, c’est parfois déstabilisant quand on a l’habitude du confort d’autres OS.



    Si BB fait du bon boulot avec une surcouche efficace qui reproduirait les qualités de BB10 sans trop alourdir la fluidité ça pourrai convaincre un peu plus, et avec des smartphones mieux finis que le Priv… mais AMHA ils ne se sont pas foulés question qualité du matos c’était surtout pour tester avant tout le marché.



    Le bon boulot, je n’en doute pas, il le fera. Car la survie de leur business en dépend. Reste avoir les résultats dans un avenir pas trop lointain.

    Lorsque Apple a du faire le même type de choix, il y a quelques années, en adoptant Intel, il  avait préparé se changement dans l’ombre, des années en amont.


Le 04/02/2016 à 14h 59

L’une des choses que je reproche à Android, c’est bien les trois boutons virtuels. Peut-être bien sur certain tel, mais lorsque le constructeur a pris le temps de mettre, trois boutons physiques, comme Samsung. Pourquoi des développeurs tiers, comme Cyanogène, insiste pour remettre ces horreurs virtuels? Bizarre de Bizarre! Comme dirait le Capitaine Haddock!

Le 04/02/2016 à 14h 43

Pas faux tout çà! Bonne question! Il faut faire le choix intégral de ses applis, ouvert et certifiés propres. Ceci dit. Non à la porté de tout le monde.

 Il y aura toujours un petit peu de Google, vu qu’on est connecté via le Magasin Apps Google. Donc, à travers le lien ou les applis que l’on télécharge, la communication peut se faire.

Le 02/02/2016 à 14h 45

Moi, je fais tout çà sur les deux et j’aimerais que l’un et l’autre soit sécurisé de la même manière et je crois qu’on peut améliorer la sécurité sur Androïd plus rapidement que la plupart des OS car, l’effort ne commence que tardivement. Si Android veut être adopté par les entreprises et certains services gouvernementaux, il devra évoluer dans cette direction.

Si Google n’avait pas pris autant de liberté avec Android, je crois qu’il aurait pu être mieux structuré, en terme de sécurité. Cependant, la source étant ouverte, tout le monde peut y mettre du sien, comme le montre Cyanogène, par exemple, ou les différents acteurs du marché telle que Samsung, pour ne citer qu’eux.

Le 02/02/2016 à 14h 20

Je suppose qu’avec la politique sécuritaire de BB, il va y mettre du sien pour mieux sécuriser Androïd. S’il a choisi cette voie, a priori, elle est plus simple pour le développement et le future de l’entreprise.

Concentrer leurs efforts plus sur la sécurité que le développement proprement dit, de l’OS semble être une bonne chose pour nous les clients. Car il faut l’avouer, pour l’instant, l’OS de Google est loin d’être sécurisé.

Plus de 600000 vols de portables/an en France. Çà fait peur. J’aimerais bien savoir la part de chaque marque dans ce cas précis et ce qu’ils font pour y remédier.

Le 02/02/2016 à 13h 57

A refaire! On commence bien et on fait marche arrière petit à petit. Voyons ce que çà va donner au final!

Le 30/01/2016 à 00h 01

Non, pas par micro ondes! Il y a bien d’autres méthodes à notre porté.

Le 29/01/2016 à 22h 26

Pour info, avant Cabasse, il y a eu Audax qui faisait des très bon HP. J’ai eu personnellement le 33cm Audax, PR33S100,  couplé dans une enceinte type Onken avec le 17 cm, PR17HR37, sur pavillon amovible et des aigües Fostex qu’il a fallu atténuer l’ardeur.

Le fondateur de Cabasse travaillait chez Audax avant de quitter ce dernier et créer sa propre entreprise.

Je ne parle pas de linéarité, je parle de restitution musicale, d’écoute. La bande passante d’un transistor, d’un ampli Op ou d’un ampli Hifi est très importante pour la qualité de la restitution. Et la neutralité aussi d’ailleurs.

 Ton ampli n’a pas besoin de filtre si ce qui est en amont est de bonne facture, Il n’y aura pas de fréquences parasites. Eeeeh!

Pour faire court! tu prends deux fois le même ampli et tu brides l’un avec un filtres à 20khz et l’autre sans et tu fais une écoute à l’aveugle. Tu fais aussi écouter d’autre personne pour confirmer les résultats.

Tu n’as pas d’ampli disponible, les deux canaux d’un ampli stéréo feront l’affaire, je pense. Le Hiraga 20w est un exemple de neutralité quand il est bien réalisé ou ampli équivalent.

Voici un exemple flagrant de l’influence de l’échantillonnage sur la restitution, lorsqu’on enregistre un MP3. Suivant la fréquence d’échantillonnage, la qualité n’est pas la même et c’est flagrant. Si vous contestez çà, c’est que vous n’avez pas d’oreilles ou vous êtes de mauvaise foi. Même si il s’agit là de compression numérique.

Le 29/01/2016 à 05h 50

A priori, tu n’entends pas très bien. Je ne dirais pas que le numérique n’a pas fait de progrès, quand à dire que l’analogique est mauvais, soi vous êtes de mauvaise foi, soi vous n’entendez pas ou vous affirmez des choses que vous n’avez pas vérifié vous même.

Ces discutions existent depuis le début du numérique et j’espérais que l’on avait acquis de l’expertise dans ce domaine et une vision plus ouverte de des choses. Car l’industrie ne vous a pas attendu pour faire les corrections qui s’imposaient  pour améliorer l’écoute numérique.

S’il s’était reposé sur la théorie que vous prônez, on serait encore à l’age de pierre dans le numérique. Heureusement, on a su entendre les remarques de certaines oreilles d’or et faire les corrections qui s’imposent.

Un signal analogique n’est pas parfait, loin de là. Il a bon nombre de défaut cependant, le numérique aussi, traine pas mal encore insurmontable à nos jours. Ce n’est qu’une suite de compromis pour les deux cas. Et dans le cas de ce dernier nous découvrons ses avantages.

 Ce n’est pas parce que l’on ne perçoit pas un phénomène qu’il n’existe pas et qu’il ne peut nous nuire physiquement. Exemple: L’air, l’odeur, le vent…

Çà, c’est pour ceux qui pensent que l’oreille est limitée. Je crois plutôt que c’est l’esprit qui est limité ici à une vérité antérieur.

Le son est chaud quand il est parfait, bien exécuté. Il vibre, il apporte de l’amour, de la joie, des sensations fortes. Comme si on avait l’orchestre devant nous. Le son du saxophone, de la trompette du violon ou de la guitare est correctement reproduit, etc…

Les instruments de mesures ne peuvent reproduire tout cela. Le seul capable, l’oreille, et elle n’est pas limitée car c’est pour elle que tous ces choses ont été crées. Y compris, nos instruments de mesures. On justifie notre incapacité à bien faire en décriant notre oreille.

 Quel misère!

Le 29/01/2016 à 04h 55

Je ne pouvais pas rater çà. Deux transformées de Fourrier? Tu ne te trompes pas d’époque et de moyen? Qoique Fourrier soit un vieux bonhomme, la mise en application de ces théories n’a vue le jour que trop tardivement et est d’ailleurs plus en adéquation avec le monde numérique.

La transformée de Fourier s’exprime comme « somme infinie » des

fonctions trigonométriques de toutes fréquences. Une telle sommation se

présente sous forme d’intégrale. L’analyse non standard

permet de la présenter sous forme d’une série et justifie le point de

vue intuitif. Séries et transformation de Fourier constituent les deux

outils de base de l’analyse harmonique.

Lorsque qu’une fonction représente un phénomène physique, comme l’état du champ électromagnétique ou du champ acoustique en un point, on l’appelle signal et sa transformée de Fourier s’appelle son spectre.

fr.wikipedia.org Wikipedia

Cà fait longtemp que je ne m’occupe plus de théorie mais de chose pratique.

 J’ajouterai seulement que le burin du graveur de master n’a pas été créé à partir du transformée de Fourrier mais le transformée de Fourrier a été utilisé pour comprendre et expliquer le processus (ce que produit le graveur). De même pour le signal et son spectre.

Sais-tu comment le son est reproduit à partir de l’aiguille et acheminé jusqu’au préamp et  ampli?

Le 29/01/2016 à 04h 08

Je te rejoins sur certains points quant à la progression du numérique. Il devait cependant faire des progrès à son démarrage pour supplanter l’analogique. Il est maintenant mature. On le maitrise bien mieux et bien d’erreurs commises au début, ont été corrigées.

On ne peut quand même pas jeter la pierre à l’analogique. Elle a tout de même bien fait son travail, dans tous les domaines d’ailleurs et c’est aussi grâce à lui que l’on peut entendre les progrès du numérique. Car l’être humain ne possède pas de convertisseur numérique/analogique dans l’oreille et celle-ci ne perçoit pas de d’information numérisée.

Il nous faut un convertisseur N/A, un ampli et des HP pour la reproduction sonore que l’on désire entendre.

Le 29/01/2016 à 03h 47

Excuses, je crois que tu t’appuies sur de la théorie pas sur de la pratique pour tes affirmations. Petit anecdote!

Un jour, je testais un ampli à une puissance de 1W eff.. Il y avait quelqu’un avec moi dans la pièce qui ne savait pas ce que je faisais et lorsque j’ai laissé le 20kHz/1W un peu moins de 5mn, cette personne est venue me demander d’arrêter ce bruit que j’avais laissé. C’était un sinusoïde de 20kHz. Le test était positif même au 22kHz. Elle avait la sensation d’un bourdonnement présent dans la pièce qui était très gênant à fort niveau. Et moi, je l’ai ressenti aussi, assez étonné d’ailleurs car les études disent le contraire.

Pourquoi les amplis Hifi ont une bande passante de 80kHz minimum, voir plus sur certains, alors que l’homme ne peut entendre que jusqu’à 16kHz en moyen. Et si on joue la même musique sur un ampli a bande passante plus étroite, la différence s’entend.

Le 24/01/2016 à 11h 52

Si tu as bien lu, tu verrais qu’on parle sinusoïdale et pas de signaux complexes comme dans la musique. On peut reproduire facilement une sinusoïde quand on connait sa fréquence, qu’en est-il d’un signal complexe représenté par deux petits échantillons, alors qu’il contient des harmoniques h2, h3 h4…h7 même des fois.

Tout çà passe à la trappe. Et, ce n’est pas le théorème de Shannon, ni les transformées de Fourrier qui les trouveront.

D’ailleurs, à l’heure actuelle, tous les bons enregistrement se font au minimum à 96kHz. Le standard CD 44kHz n’existe qu’à cause de la limitation mécanique qu’il impose.

Le bruit de frottement du vinyle peut-être enlevé en utilisant un liquide (comme l’eau distillée) lors de la lecture. Et la dynamique, lui même augmente significativement.

Les harmoniques s’entendent clairement dans n’importe qu’elle musique si on prend le temps de les percevoir. Elles font partie intégrante du son. Le timbre d’une voix, c’est lui. Les caractéristiques de telle ou telle instrument de musique, c’est aussi grâce à eux. Les cymbales, les cloches et autres percussions, les trompettes et autres instruments…

Ce genre de réflexion, je croyais qu’elle était révolue depuis l’avènement du son dit audiophile, car elle a existé au début du CD. Et certains ont pu démontré que la mesure de distorsion ou de rapport signal/bruit n’était pas tout dans la reproduction du signal audio.

Le 24/01/2016 à 11h 05

Désolé

de te décevoir gavroche69, ces dires ne sont pas tout à fait juste. Les

inconvénients du vinyle pour faire court, c’est l’usure de la galette

et de l’aiguille, le bruit engendré par le frottement de cette dernière

dans le(s) sillon(s). La difficulté à régler le bras de lecture

(Contre-poid, anti-skating)

Les inconvénients du CD, surface fragile,

Lecture difficile voir impossible en cas rayures profondes ou

multiples, usure rapide par frottement de l’unité optique, si mal réglée,

bande passante étriquée, son dur dans bien de cas(distorsions

harmoniques paires).

Les avantages du vinyle, son chaud plus proche

de la réalité, bande passante dépassant allègrement les 20kHz, diaphonie

correcte, Bonne équilibre tonale et position des instruments dans

l’image sonore bien respectée…

Les avantages du CD, pas de bruit de

frottement, pas d’usures à proprement parlé (sauf si l’optique bute

contre la surface du disque), Bonne dynamique, diaphonie et équilibre

tonale dépendent beaucoup du CDA, des filtres et des pré-amp de sortie

comme on le voit souvent sur les cartes sons haut de gamme). Le son

chaud dépend surtout du sur-échantillonnage appliqué et de la qualité

des filtres et amp de sortie, de la qualité de la surface du disque (pas

de correcteur d’erreurs en fonction).

 Actuellement, les premiers filtres sont numériques ce qui diminue le besoin en caractéristiques critiques des filtres de sortie.

Toutefois,

sachez que tous les appareils du commerce n’ont pas les mêmes

attentions, moyenne ou haut de gamme. Leurs reproductions sonores sont

bien piètres à côté de certaines platines vinyles.

Techniquement, le

Cd semble plus complexe à mettre en œuvre quand il s’agit d’un appareil

correctement construit. Le son sans bruit de fond parait plus net, à

cause aussi de la bande passante étriquée sur certaines platines.

Le

vinyle ne paye pas de mine, mais demande autant d’attention pour une

reproduction correcte du signal audio qui n’oublions pas est analogique

donc facilement dégradable si mal introduit.

Le 24/01/2016 à 09h 52

C’est une théorie que j’ai appris aussi, qui n’est cependant pas exploitable dans l’état actuel de la technique à disposition.

La théorie nous rapproche de l’absolu mais ce dernier n’existe pas dans l’univers pratique des hommes, pardon, de l’électronique.

Le 23/01/2016 à 20h 11

Les premiers enregistrements numériques étaient limités de 20Hz à 20kHz en partant du principe que l’homme, en générale, ne peut entendre que jusqu’à 16kHz, exceptionnellement jusqu’à 18kHz.

L’échantillonnage des CD de l’époque = 44kHz. Ce qui veut dire que la fréquence de 20kHz n’a que deux échantillons, inexploitables à la reproduction, sans sur-échantillonnage et sans distorsion.

La musique sans les harmoniques perd en timbre. Un son, quelle qui soit, est une fréquence quelconque de forme sinusoïdale accompagné de différentes autres (harmoniques) qui constituent le timbre. En limitant l’échantillonnage on limite par la même, la reproduction fidèle du son.

Mais il y a d’autre limitations, sur la chaine d’amplification par exemple…

Le meilleur compromis serait d’échantillonner le 20k à x4 sa fréquence; chose que ne pouvait faire la technique à ce moment. Et, d’utiliser un sur-échantillonnage x8 mini, pour lisser le tout en quelque chose d’acceptable. Chose que l’on retrouve maintenant sur certains bon appareil.

Le 23/01/2016 à 19h 21

Bonne vérité! Cependant je me permettrai de dire, qu’en vidéo, le numérique n’a pas apporté le même avantage ou inconvénient. Je crois qu’on a eu plus de bonheur sur la vidéo. Pas de détérioration à la reproduction et à la copie, ni dans le temps. La qualité est passée au 720, puis au 1080. Rien à voir avec du 576.

L’audio-numérique a eu plus de mal à égaler les performances de certains matériels de reproduction de haut niveau.

Le tube et le transistor à effet de champ restent les meilleurs composants de reproduction audio. Avantages dûs à leur technologie.

Le 23/01/2016 à 18h 51

Quand on part de ce principe, l’altération commence aux micros de prise de son. Le meilleur son serait, concert sans sono. Mais il y aurait peut-être peu d’adeptes. Seulement possible en petit salle ou salle spécialisée.

Les ingénieurs de son essaient de faire au mieux pour reproduire le son à l’identique, des ensembles musicales mais cela dépend beaucoup des locaux et du matériels de sonorisations utilisés.

On risque parfois d’être très loin de la réalité sonor.

Les choses changeraient-elles pour l’enregistrement proprement dite?

Le 23/01/2016 à 18h 31

Merci, je te rejoins. Cependant, pour mes oreilles, le vinyle est resté longtemps meilleur, la bande passante étant trop limitée sur l’échantillon numérique. L’arrivée de l’étendu de la fréquence d’échantillonnage de base et du sur-échantillonnage à la reproduction, et de filtres plus poussés, ont permis d’améliorer les choses sur plusieurs points.

Sache que beaucoup de grand musicien regrette le son analogique. Nostalgie ou réalité?

Le 27/12/2015 à 18h 53

Bonjour,

Il existe des oreillettes ou des casques Bluetooth pour téléphoner le téléphone dans la poche, et même hors de celle-ci à plus de 10m en dehors.

Le 27/12/2015 à 18h 47

Bonjour,

Le Note 3 n’est pas une réussite à proprement parler. Un Note 4, c’est beaucoup plus marquant dans l’esprit Note.

Je ne comprend pas le passage Note vers téléphone normal. Pouvez-vous m’expliquer? Vous vous êtes trompé la première fois?

Le 19/12/2015 à 02h 30

Bonjour,

Je dirai plutôt bonne chance au chercheur en espérant qu’il gagne son procès. C’est évident que Face ne voulait pas payer et ils ne sont pas à leur premier coup d’essai. Souhaitons que le juge puisse le suivre dans sa logique. Ce n’est pas impossible si c’est bien développé.

Attendons de voir.

Le 08/12/2015 à 23h 25

Mon seul but était de montrer que tout est régulé autour de nous. Alors pourquoi l’internet serait l’anarchie ou partiellement l’anarchie.

Je doute que tu saches de quoi tu parles quand il s’agit de nature. La nature parle pour ceux qui l’aiment, avec un langage simple et clair. Mais, ceux qui en profitent sans vergogne, on plutôt du mal à comprendre et on besoin d’Algorithmes pas encore à l’aube de ce Temps.

Pour ma part,  c’est sans compromis quand il est question de nature. L’histoire de la Terre nous parle…

Le 06/12/2015 à 03h 12

Si çà prend cinq dixième de degré tous les dix ans, cela reste inquiétant. Pour la simple raison, nous ne maitrisons rien. De vous à moi, cela fait plus d’une trentaine d’année que certaines pointures scientifiques en parlent, et de nombreux chefs d’États ont ignorés ces alertes. Notamment sur Reader Digest…

Un exemple: Lorsque nous avons fait le moteur à explosion, nous avons tenté et nous avons réussi à maitriser la vitesse du moteur par un “dispositif de régulation automatique” pour éviter qu’il s’emballe et se détruit. Il y a de nombreux exemples dans notre environnement.

On devrait s’inspirer de ce qui est autour de nous. La nature, dont on fait partie, est comme çà

Le 25/11/2015 à 04h 03

J’attends les progrès avec impatience. J’en ai marre d’utiliser un système non libre.

Le 25/11/2015 à 03h 56

Bonjour,

Tu as d’autre distrib comme Ubuntu qui fonctionne des fois mieux avec les CG. Ne craches pas dessus, ça pourrait-être bien.

Je l’utilise depuis un certain temps et je joue sur win. Plus pratique et plus beau.

Le 20/11/2015 à 02h 21

C’est plutôt un SLI de GTX 960 ou 970 qui me tenterait.

 

Le 20/11/2015 à 02h 17

Bonjour,

Moi, la seule chose que je vois. C’est qu’on essaie de faire du neuf avec du vieux. Chez Amd, ils n’ont pas froid aux yeux.

J’attends tranquillement la relève. En attendant, j’achète GeForce. Et pour une fois, les prix ne sont pas excessifs.

Le 26/05/2015 à 06h 37

Cette idée est possible! Il suffit d’ouvrir votre smartphone pour vous en rendre compte. Après, comme j’ai vu dans la vidéo, des modules  interchangeables, de caméra, émetteur-récepteur, enregistreur numérique etc…

Le plus important est la conception du socle qui détiendra le bus principal.

Dans ce concept, le hardware tient beaucoup de place. Beaucoup plus que  la partie software. Il  doit être solidement conçu pour paré à certaine déficiences.

Le 12/05/2015 à 09h 38

Bonjour,

Je suis désolé je ne comprends pas la question “Dieu, il consomme des Watts ?”. Je parlais de vérité ici et non de watts; sois plus sobre et plus ouvert dans tes réflexions.

 J’ai vu que tu as écris “je ne connais pas bien les process, mais j’imagine que graver plus finement consomme plus”. Et bien tu imagines mal, plus le procédé de gravure s’affine, plus la consommation diminue et les éléments étant plus près, en théorie, le temps de réponse s’améliore.

Soit moins vindicatif, on est tous là pour apprendre et internet est une source de connaissance intarissable. Il faut gérer certains de ces infos indubitablement avec  prudence.

Dans le lot de Gros Gamer, il y a aussi plusieurs familles. Au moins deux. Des perf/€ pour certains et des perf/W pour d’autres. Et, même un combinaison des deux, si je ne m’abuse; et je fais parti de ceux-là. A choisir pourquoi ne pas choisir le meilleur compromis.

Lorsqu’on parle Processeur, il faudrait être plus proche des caractéristiques techniques que du ressenti et être pragmatique. L’utilisation de la machine à calculer et du bon sens n’est pas à proscrire. C’est vrai que 3W d’économie semble ridicule mais 3w par ci, 3w par là, dans la maison, peu limiter votre participation à la formation du CO2, d’une part et l’État de votre porte-monnaie d’autre part.

Mes 250w (rms naturellement) sont pris un peu arbitrairement sur un système gamer (unité centrale) équipé du couple GTX660/i5 4670K. Sur certains jeux, la conso peu dépasser les 300w rms. C’est le type de config (avec une légère variante) qu’on peut retrouver dans beaucoup de foyers, assez évolutif suivant le nombre et les dimensions de s(es)on écran(s).

 Et pour finir la plupart des gens achètent une voiture sur des arguments subjectifs alors que ceux qui auraient dû primés ce sont les techniques (robustesse, consommation, fonctionnalités, option en série, efficacité et prix du SAV, des pièces détachées ect…) et les constructeurs le savent et en profite pour nous vendre des produits pas très adaptés à l’environnement et au besoin réel… Et c’est du non sens si on veut polluer moins.

C’est de même en électronique où la consommation des processeurs graphiques et des micro-processeurs (x86 en particulier), dans le moyen et le haut de gamme, ne ce sont pas tellement améliorés.

Pour améliorer les performances, le nombre de transistors dans ceux-ci ont explosés (passant du million aux milliards ces derniers temps). Ce qui n’arrange pas la consommation vraisemblablement. On tente de contenir tous cela avec quelques artifices logiciels tant bien que mal pour ne pas affoler les compteurs électrique et les ventilateurs.

Le 09/05/2015 à 10h 52

Soyez sobre dans vos consommations et votre langage, je vous prie. La vérité absolu n’est pas de ce monde, mais de Dieu.

Le 09/05/2015 à 10h 26

Bonjour

Je me permets de placer deux ou trois petites remarques: Tu devrais être un peu plus nuancé lorsque tu parles de différences entre CPU Intel ou Amd. Je ne crois pas que c’est aussi simple que çà de définir quoi choisir, sinon cela se saurait.

Les perfs des CPUs Amd ne sont pas si mauvaises que çà, surtout si on sait faire le bon choix en fonction du besoin, que l’on désir une machine à tout faire. Cependant lorsqu’on veut jouer, c’est le cas de beaucoup d’entre nous, l’association d’une carte Graphique quelconque à un CPU se fait sur le rapport performance/watt, le plus souvent.

D’autre on fait les tests pour nous; il suffit de lire les différents sites. Ou si on n’est pas d’accord avec les résultats trouvés sur le net, on peut ses propres test avec un wattmètre et quelques logiciels bien connus maintenant.

Et c’est là, le choix se fait plutôt sur Intel qu’Amd. Pour la petite histoire le dernier CPU Amd que j’ai utilisé était un K9. Multicores très intéressant à l’époque du K7 au K9.

Amd est en retard sur la consommation électrique pourtant c’est eux qui ont initié ce mouvement. Il semble avoir perdu pied sur la gestion mémoire mais leurs processeurs ont d’autres qualités intrinsèques qu’ils ne faudraient pas négliger suivant l’utilisation de la machine (par exemple en serveur).

Je reconnais si je dois choisir entre un i3 et son équivalent en Amd, il y a matière à réflexion. Si c’est pour un ‘Home’, je prendrai peut-être l’Amd pour les performances de l’APU et le prix. Mais reste à mettre en balance, pour la carte mère, les connectiques et leurs performances brutes ou courantes.

 Mon plus cher désir serait, qu’ils reprennent le chemin du succès mais cela ne pourra se faire que s’ils investissent de nouveau dans la “Recherche et le Développement”. Je n’ai pas l’impression que c’est le chemin choisi. Ils cherchent plutôt à économiser, les dirigeants actuels.

Pour les aider un peu, on peut toujours faire un bon PC de jeux, moins cher, avec du Cpu Amd. Si vous faites un bon choix de la carte graphique, je ne crois pas que vous verrez la différence à l’oeil nu.

Je voudrais rajouter 70w au repos, avec une utilisation de 8h/j sur 364j donne 204.4 Kw pour une facture de 40.88€, le watt étant estimé à 0.2€.

Mais dans une maison,il n’y a pas que çà et il n’y a pas de petites économie non plus. Si l’on considère d’autre part une utilisation jeux de 8h le plus souvent. On aura autre-chose : 250w env. x 8 x 365 = 730 Kw x 0.2€, nous donnera 146€ pour l’unité centrale seule. Il faudrait rajouter le(s) écran(s) + l’ensemble lumière de la pièce, s’il est utilisé.

On voit qu’il n’est pas aisé de faire un choix surtout pour les personne dont le portefeuille n’est pas plein à craquer.

Le 27/04/2015 à 02h 15

‘Bonjour,

Condos chimiques le plus près du processeur est une pratique normale pour un concepteur. En limitant la distance, il limite les fluctuations au borne du Ci, donc, améliore la stabilité, le bon fonctionnement. Naturellement, si il met un condo pourri à cette place, risque de fuite possible. Mais il y a d’autre manière de procéder en attirant moins les soupçons.

 

Le 17/04/2015 à 05h 47

Je ne comprend pas ce que viens faire la sécurité sociale dans cette discussion? Quel rapport?

Je suis pour l’auto-régulation d’internet et non par des lois mais si on attend, il y aura la suprématie des entreprises américaines en générale et les autres vont grappiller les miettes sous la table de négociation. Si Google par le moteur de recherche et des serveurs hyper intrusifs, ce n’est pas par hasard. Celui qui détient l’information est le pourvoyeur. C’est celui qui détient le pouvoir. Et encore plus tragique, il a Youtube dans leur giron, et Gmail depuis un certain temps, sans oublier l’Os mondialement connu, Android. Tout çà, fait beaucoup pour une seule antité au yeux de certain et çà fait peur.

Apple, la plus richement doté en bourse et même Microsoft, n’ont pas cette emprise sur le monde numérique et autre… qu’à cette entreprise.

Imaginons que Google décide de monnayer toutes ces informations personnelles et variées qu’il stock (ce qu’il fait déjà en parti) sur ses serveurs à chaque recherche.

Le 22/05/2014 à 14h 13







-SQP- a écrit :



Si les distro linux n’ont pas (besoin d’) une durée de vie aussi longue que les OS proprio, c’est parce qu’il n’y a pas de contraintes pour empêcher de les faire évoluer (upgrader). En même temps, je suis sur qu’il est possible d’avoir une debian de plus de 10 ans et entièrement à jour (enfin du point de vue debian).



moi je l’aurais interdit pour “utilisation de bande passante incontrôlée et incontrôlable” (pas un problème d’interception des communications à l’extérieur, mais l’impossibilité de savoir si le programme n’espionne pas ton réseau interne).







Merci, pour tes réponses assez claires et que j’acquiesce tout à fait!



Quand je parle d’esprit du temps, je voulais dire qu’on ne programme pas comme il y a 20 ans. On évolue, on adopte des choses plus simple et nos processeurs sont plus puissant et plus performant, de même que la mémoire et la place qu’elle occupe (plus étendu). Tout ceci contribue à une évolution certaine de l’écriture (en bien ou en mal…)



A ma connaissant, il y eu une faille très critique, déclarée quelques temps plus tard, sur la confidentialité des conversations, et facilement reproductible.

L’avait-il découvert ou non???

Pour l’espionnage, ne suffirait-il pas de le museler que de l’interdire?


Le 21/05/2014 à 20h 36







TZDZ a écrit :



La discussion sur les failles fait suite à l’article cité dans les commentaires qui visait à éviter de ne se baser que sur des raisonnements partiaux pour discuter de la qualité de la sécurité dans les logiciels open-source ou non (je t’invite à relire l’ensemble de la discussion).



Ton raisonnement est profondément influencé par ton opinion de la question (notamment ton opinion de MS). Je peux aussi faire un raisonnement inverse : un éditeur commercial a intérêt à obtenir une bonne image de ses logiciels en assurant un entretien de qualité pour pouvoir fidéliser ses clients.



Tu l’as peut-être compris, ce genre de raisonnement ne fait guère avancer les choses, d’autant qu’il est question ici de la Chine, et plus particulière des PC de l’administration chinoise, alors la vente forcée est tout à fait hors sujet.



Concernant la fin du support d’XP, on a pu voir que la durée du support est comparable à celle des distributions linux (10 ans pour RedHat par exemple, beaucoup moins pour les autres), et que de toute façon les situations en termes de part de marché sont trop différentes pour en tirer des conclusions.







Bonjour,

Je ne vois pas pourquoi vous vous disputez là! On parlait d’XP avec sa longévité record et exceptionnelle. Je trouve qu’il a bien fait son temps. Paix à son âme! La programmation à beaucoup évoluée entre temps et on ne peut pas re-écrire le logiciel. Il est plus objectif d’écrire un nouveau plus en adéquation avec l’esprit du temps et de la demande.

Les distributions Linux ont une durée de vie beaucoup plus courte et aussi l’OsX d’Apple quoique moins distribué.

Win7 va aussi être dans le cas, quoiqu’il soit plus costaud que Win Xp. Je l’utilise encore pour jouer en ligne (pour la petite histoire).

Je pense que les chinois peuvent mieux maitriser un parc Xp que “8”, çà pourrait-être l’une des raisons du bannissement de “8”, mais certainement pas tout!

On a vu le gouvernement Français interdire Skype dans les Universités et administrations, alors que tout le monde s’accordait à dire que le codage des conversations était difficile à cracker. Pourquoi? Le savez-vous?

Pour revenir au 8. Je dirai, et pourtant je ne suis pas chinois, j’irai plus tard! Je ne suis pas pressé! J’ai assez avec mes trois Os, Ubuntu, Os X 10,6 et Win7. Un quatrième, ne ferait que m’embrouiller un peu plus, et je laisserai passer l’essentiel.

Après tout, ce pourrait-être le dilemme du gouvernement Chinois, tout simplement!


Le 21/05/2014 à 19h 58

Bonjour,

Je dirai c’est pour mieux maitriser leur parc d’xp qu’ils veulent pas de “huit”. Ce dernier étant nouveau, leur échappe un peu. Il sera admit dans 2 ou 2 ans. Le temps qu’ils s’acclimatent avec la bête.<img data-src=" />

Le 20/05/2014 à 04h 19

Bonjour,

Mon modeste Core2Duo fait tourner Firefox correctement sur MacBook 2.1. Je comprends pas de quoi vous vous voulez parler. Soyez plus clair, je vous prie. Et sur Windows ou Ubuntu, c’est de même.

Par contre, je voudrais updater avec mon ubuntu 10.10. Qui a la solution?

Le 03/05/2014 à 20h 47







Krutors a écrit :



Etant donné que le reseau Internet n’est plus qu’un simple agrégats de textes, et de liens menant vers ces textes, mais une place de marché géante, avec panneaux publicitaires a 360° autour de toi. Aucun site ni aucun fournisseur de service tel qu’il soit n’a d’intérêts à activer cette fonction.



Bref, rien ne vas changer, le DNT ne sera pas autorisé coté serveur, fin de l’histoire.<img data-src=" />







Je ne suis pas si sûr que toi!

Ce ne sera pas une fonction identique, mais une gomme. Ceci afin de les apprendre à vivre dans le respect de la vie d’autrui.

Et, si l’on regarde plus en arrière, des solutions comme ABP ou et autres anti-malwares, sont nés à cause du manque d’égard de certains sites vis à vis de leurs visiteurs.

Il en sera de même pour ce qui va suivre. Je reste confiant! Et puis, çà rapporte des sous d’être unique.


Le 03/05/2014 à 20h 34

[quote:5010738:barlav]

Moi aussi j’aime bien le bisounours rouge, et le vert.



Sinon je suis comme toi, je ne maitrise pas tout, et ABP n’est pas la solution, c’est juste un moyen temporaire.

Le vrai moyen c’est de n’ouvrir qu’une session privée a la fois par page web, mieux via VPN, voire carrément de vivre en Hermite.

Mais c’est dur. Donc le combat est perdu d’avance pour 99%.[/quote



Oui, tous les moyens que tu as énuméré, je les utilise aussi et l’avant dernier n’est pas mal, si l’on ajoute les filtres adéquats sur le serveur. Pas besoin de vivre en Hermite. Il est anormal qu’on exploite nos faits et gestes pour s’enrichir sans au moins nous demander notre avis, explicitement.

Le 02/05/2014 à 19h 48

Bonjour,

Moi, je suis pour le radical. Ils ont aucun droit sur notre vie privée, alors ils la ferment. Ils nous demandent d’abord notre avis et après dès qu’ils l’auront, ils pourront se battre entre eux pour savoir comment gérer ces droits.

Pour l’instant, je n’autorise personne à me suivre, je ne refuse pas la publicité venant de site que je fréquente pour ne pas les affamés, mais je déteste l’idée même d’être suivi, faits et gestes. Je ne trouve pas çà très sain. C’est du voyeurisme. Je ne suis pas exhibitionniste et désir passer sur l’autoroute du Net (dans le film de la vie comme un figurant quelconque) comme un nombre binaire quelconque.

Enfin, il y a beaucoup à dire et redire la dessus. Ces pratiques sont trop intrusives depuis le début et on continue à ne pas les maîtriser.

Ne sommes nous pas en démocratie?

Vive ABP et autres logiciels similaires! Il est anormal de subir les regards non désirés dans notre intimité qui n’en est pas vraiment une sur internet pour l’instant.

Vive la protection de données personnelles.