votre avatar

loulnux

est avec nous depuis le 27 février 2008 ❤️

538 commentaires

Le 14/05/2014 à 07h 50

Le pire c’est qu’ils s’acharnent sur une boîte par ci par là pour instaurer un sorte de terreur sachant parfaitement que tous les assembleurs et réparateurs pratiquent la même chose; aucun n’a l’intention de se retrouver “collecteur” de taxes en triplant le prix de leur prestation juste pour le bon plaisir de Microsoft.

Le 14/05/2014 à 07h 39

Ah bon?

Et dans dix ans on en parle encore où on va casser enfin le thermomètre?

Le 07/05/2014 à 14h 31

Je ne suis pas partisan d’un site franco-français mais je trouve que ce type d’activité mérite d’être concurrencé sinon d’ici quinze ans il n’y aura plus d’hôtellerie indépendante et quand on voit le chiant des chaînes….

Le 06/05/2014 à 16h 04

C’est le secrétaire général d’un syndicat interprofessionnel; ce qui arrive n’est évidemment pas de sa faute puisqu’il ne peut que répéter à la profession qu’il est sensé représenter, ce qu’elle veut entendre; or ces braves gens; alors que Sony vient de déprécier son stock de BR cherchent toujours à rentabiliser leurs lignes de pressage.

On a vraiment à faire à une bande de mal-comprenant; si ils désirent que leur business perdure il faut qu’ils se mettent dare dare à la dématérialisation et qu’ils en répercutent les économies induites sur le prix de distribution des œuvres plutôt que d’incriminer les touches à tout.

Le 06/05/2014 à 02h 38

C’est un vrai 8 core sans HT il y a la même carte pour 100€ de moins : la C2550 et un vrai atom quad core sans HT.

Ceci dît effectivement ça parait cher mais sans plus car aller chercher une autre solution avec une autre famille de procs en mini ITX avec autant de ports Sata et 2 RJ45 et 64Go d’ECC est un projet quasi inatteignable tant en quantitatif qu’en prix de revient; même en cas d’exploitation en rack 19” rares sont les cartes qui vont rendre d’emblée autant de service pour ce prix.

Le 05/05/2014 à 16h 40

Ça m’en touche une sans faire bouger l’autre.

Maintenant qu’il s’en sorte si bien en laissant la partie la plus visible du business qu’il quitte dans une sombre merde reste discutable mais au fond je m’en tape aussi.

Certains clowns font fortune pourquoi pas lui?

Le 05/05/2014 à 13h 37







darth21 a écrit :



Non je ne plaisante pas, la traduction systématique en français n’est ni une bonne idée, ni souhaitable.

Ceux qui la réclament au nom de la ‘sauvegarde’ de la langue française se trompent totalement de but.





Peu importe, mais pour une fois que la traduction reste littérale facile à intégrer et surtout non ringarde, je n’aurais pas trop de difficulté à m’y faire, ce n’est pas comme déterrer de vieilles ardoises alors que tablette semblait tout aussi approprié et déjà en cours d’utilisation.


Le 30/04/2014 à 22h 53

Je rejoins la communauté des gens étonnés de la persistance d’AOL … Bah ça m’a fait le même effet que quand des gens me confient leur adresse mail en wanadoo.fr.

Le 30/04/2014 à 10h 22







Riicolaaa a écrit :



Bon c’est ma dernière réponse pour toi… <img data-src=" />



Je vais être simple: tu ne réponds à aucun argument technique et n’en avance aucun. Tu confonds bits et Bytes, ne comprends pas qu’un NAS qui a une vitesse de lecture à 80Mo/sec dans le meilleur de cas (lecture d’un seul fichier, dans le mode RAID le plus performant, avec tous les disques qui appartiennent à la grappe…) n’est pas saturé par un réseau qui peut monté à plus de 100Mo/s… <img data-src=" />



Alors je ne sais pas quel est ton métier, mais ça n’est visiblement pas du réseau.

En dehors des questions de réseau, pour ne pas comprendre que 80 &lt; 100, tu ne dois pas vraiment être un technique non plus.



Pour reprendre ta phrase, j’adore les mecs qui n’argumentent pas leurs propos, ne répondent pas à ce qu’on leur dit et ne se remettent pas en question.

Tu en déduiras ce que tu veux, mais si c’est ça ton métier il y a effectivement des choses à t’expliquer <img data-src=" />





Relis bien mes posts depuis le début, je dis bien le début, lis aussi l’article (ce que tu ne sembles pas avoir fait).

Tu viens d’abord me contre-dire sur des bases fallacieuses et ensuite tu argumentes sur ces bases.

J’ai le regret de maintenir qu’en Gigalane la valeur de 130Mo/s est le grand maximum qu’on puisse atteindre en vitesse de transfert et qu’à cette vitesse on va allègrement saturer le réseau.

Que ça te plaise ou non, c’est un fait et j’ai parfaitement conscience que ça peut également dépendre de tas de paramètres physiques qui peuvent également brider ces transferts.

Ensuite je cite des moyen pour outre-passer ces limites (bonding, ISCSI..) et tu as le culot de venir me raconter que je ne sais pas de quoi je parle?

Il y a des jours où la stupidité s’ajoute à la mal-comprenance.

Saches par ailleurs que par contre la puissance de calcul d’un NAS reste tout à fait secondaire dès l’instant où on attache un soin particulier sur la sélection des interfaces (ce à quoi travaillent maintenant les fabricants) et qu’on n’a pas recours à des fonctions secondaires telles que le chiffrage. Enfin le système de fichier à aussi une très grosse importance surtout en terme de réactivité et de rationalité mais c’est une autre histoire.

Je n’ai pas d’autres preuves de probité à apporter sachant que tu te permets de d’argumenter sur des bases fausses et que tu n’as même pas pris la peine de me lire dès le début.


Le 30/04/2014 à 02h 14







Riicolaaa a écrit :



Je comprends bien ces problématiques.

Il n’empêche que sans configuration particulière, ton particulier seul ne saturera pas le lien Giga, et donc encore moins un lien 10G, sans compté que le NAS en lui même n’est pas capable de soutenir des débits supérieurs à ce que propose l’Ethernet Gigabit.



A partir de là tu peux mettre des interfaces 10G, tu ne verras pas de différence sauf sur le prix.



Donc ma réponse est simple aussi: dans le cas où la performance est source de préoccupation pour l’entreprise (ou le particulier), il est important de se poser des bonnes questions pour identifier ce qui limite les performances et comment les augmenter.

Ce n’est pas parce que tu places une micheline sur une voie de TGV qu’elle va faire du 300km/h. Tu t’assures jusque que ce ne sera plus ce critère qui te limitera, mais si ce n’était pas lui qui te bloquait tu n’iras pas plus vite.



A coté de ça, je n’ai jamais dénigré l’intérêt d’augmenter les débits, c’est juste que ce simple critère ne te servira en rien.

Pour t’en convaincre regarde comment on calcule le débit d’une connection TCP en fonction de la latence et de la MTU. Après il y a des améliorations comme les Windows, les connexions parallèle, etc… mais cela t’aidera certainement à comprendre les limitations.



Et une dernière fois, même si tu as un réseau 10G performant, c’est le NAS qui ne suivra pas (et je ne parle même pas du PC ou téléphone de ton utilisateur qui seront encore moins performant que le NAS).



Il est évident que les besoins évoluent et qu’il faut trouver des solutions. Mais là pour le coup la solution est plus compliqué que ça…





J’adore les mecs qui essaient de m’expliquer mon métier.


Le 29/04/2014 à 14h 23







Riicolaaa a écrit :



Dans ce cas je te rejoints sur plusieurs points, mais la limite de bande passante n’interviendra que dans quelques cas précis: il faut que tu ais un certain nombre d’utilisateurs qui fassent des transferts important de manière simultanée et de façon suffisamment longue.

Même dans une PME de 20~25 personnes manipulant de gros fichiers cela devrait peu ou pas se produire.

Ainsi le passage à du 10GB n’apportera pour ainsi dire rien, en tout cas sans optimisations, mais augmentera le coût de NAS et de ton infra réseau.



Déjà dans beaucoup de “grandes” entreprises l’usage d’un réseau Giga correctement configurer suffit amplement pour l’archi système, je ne suis pas sûr de l’intérêt en pratique d’avoir du 10G sur un NAS qui n’intéressera que les PME.



Je comprends bien ce que tu veux dire, mais je suis pas convaincu du rapport coût/effets bénéfiques réels.

D’autant plus que les tests montrent (je regardé uniquement quelques graphes) que les perfs du NAS ne permettent pas de saturer un réseau Giga en lecture ou en écriture.

En écriture on atteint 130MB/sec quelque soit le mode RAID ce qui s’explique certainement par l’usage d’un cache, qui n’a pas pu servir pour le lecture (65~80MB/sec). Une fois ce cache saturé on peut facilement imaginer que les perfs en écritures tombent assez franchement.

Si tu ajoutes à cela les accès concurrents de XX utilisateurs qui vont diviser les performances, le gigabit est largement suffisant.



Après, c’est mon point de vu et mes conclusions techniques, je conçois que je puisse me tromper.

(Ma seconde réponse venait de ta remarque bits ~ octets que je voulais corriger.)





Ma réponse est simple : évidemment dans une entreprise ou il n’y a que quelques bases de données et courriers ou rapports à sauvegarder par jour, la performance n’a pas lieu d’être remise en question; moi qui ai exercé dans l’impression grand format, et qui oeuvre aujourd’hui dans la vidéo, je peux te dire qu’avec ce type de données on commence à envisager les problèmes d’une autre manière.

Par ailleurs il n’y a pas de secret, l’avènement du BR et du 4K va rendre le problème de plus en plus épineux même chez les particuliers. Quand on a à faire transiter un fichier de 2Go , ça reste dans la transparence, 8Go on le sent déjà plus, mais 50 ou 100Go là ça commence à coincer quand on voit des smartphones OPPO ou Nokia qui commencent à intégrer des capteurs 2K de là à voir une exception devenir une mode puis une généralisation: le gros fichier est déjà une préoccupation pour le commun des mortels.


Le 29/04/2014 à 12h 50







Riicolaaa a écrit :



Non non je confond pas, 1Gbit / 8 = 0.125 soit environ 120Mo ou 120MB si tu veux…

Sur un réseau en Giga, si tu exprimes de débit en bits bah en théorie tu le satures à 1G comme son nom l’indique.

Après c’est vrai qu’en pratique c’est saturé plus vite, aux alentour de 100~110Mo.



Les jumbo frame permettent de dépasser la limite de taille des paquets ethernet ce qui permet d’augmenter grandement les débits en TCP (sans outrepasser la limite du support physique).





Partant du principe d’une part qu’on n’est pas sensé être seuls sur un réseau qu’il faut bien laisser un peu de bande passante aux autres usagers ou plus simplement aux autres usages et qu’aujourd’hui les performances des disques dépassent largement celles de cette bande passante, je ne trouve pas idiot de mettre l’accent sur cette bizarrerie consistant à nous vendre du stockage de plus en plus performant sans pouvoir en bénéficier en réseau local.

D’ailleurs tu noteras que le NAS décrit comporte 4 ports Gigalan mais je suis à peu près certain que la plupart des utilisateurs n’ont aucune idée de ce à quoi ils pourraient servir.

C’est aussi pour ça que j’appelle de mes voeux un 10GBaseT “non administré” car l’important n’est pas de commencer à savoir si le jumbo frame apportera son lot d’amélioration ou à quel point le ISCSI ou le Bonding apporteront leur lot d’améliorations, l’important c’est : tu branches et ça fonctionne vite et bien.


Le 29/04/2014 à 10h 46







Riicolaaa a écrit :



Tout dépend ce que tu appelles grosses boîtes: pour moi une solution de stockage ça se compte en K€… A 700€ ça vise bien les PME







Il faudrait déjà que tu satures ton réseau Giga (~120Mo/sec en théorie) ce qui est très rarement le cas.

Pour atteindre la limite il faut utiliser des jumbo frame, taille de la Window TCP, avoir une très bonne latence, et que ça suive au niveau applicatif… (les partages type Windows ce n’est pas trop ça par exemple).

Le passage à du 10G ne t’apportera strictement rien, sauf la sympathie du mec qui te revendra le matériel et le désespoir de ton comptable.

Et pour le coup, on tombe vraiment sur du matériel pro, qui vise plus haut qu’un simple NAS (aussi bien soit-il)





A 120Mo/sec tu satures déjà j’ai peur que tu confondes bit et Byte même avec Jumbo Frame tu ne feras pas beaucoup mieux.


Le 29/04/2014 à 02h 12

P.S. Il est tout à fait possible de faire du 130Mo/s avec des disques à 5300T/mn en RAID0 ou RAID5 et SATA3, le critère n’étant plus dans ce cas la rapidité de l’unité mais son comportement à l’utilisation notamment la monté en température critère très important dans ce cadre d’exploitation des disques.

Le 29/04/2014 à 01h 39

Cet article est une mascarade de test en effet on s’en aperçoit sur les tableaux du “File Copy To NAS” et inversement : dont les vitesses varient entre 125 et 132 MO/s en écriture et à l’inverse des perfs presque réduites de moitié en lecture.

En écriture ce ne sont pas les perfs des disques qui sont en cause mais les limites du Gigalane et la qualité du contrôleur (qui n’est pas mauvaise) mais on aurait pu améliorer, suivant les cas de RAID grandement les perfs en écriture en faisant du ISCSI ou en faisant du bonding avec les 4 lignes Gigalan.

A l’inverse la vitesse de lecture (NAS&gt;Poste) dépend alors non plus des perfs intrinsèques des disques du NAS mais de celles du contrôleur NIC et du disque de la station.

Encore une fois on aurait pu assisté à mieux si ces points avaient été abordés.

Ceci dît il serait temps quoi qu’il arrive de prendre conscience que ce ne sont plus quoi qu’il arrive les perfs des disques à prendre en compte dans ce cas mais bel et bien celles des réseaux locaux qui plafonnent avec le Gigalane (en effet 130MO/s est dans la moyenne haute des perfs obtenues) alors qu’on devrait s’attendre à beaucoup beaucoup mieux en RAID0 ou en RAID5 avec du SATA3.

Conclusion : il serait temps d’aborder la démocratisation du 10GBaseT car le Gigalane non administré montre aujourd’hui toutes ses faiblesses et le titre de cet article n’a plus aucun sens quand on le sait.

Le 29/04/2014 à 02h 37

Pour le principe je poserais la question : est-il raisonnable de dépendre d’une société incapable de résoudre ses problèmes de sécurité ?

Quand on voit qu’elle aura mis plus de 15 ans à fournir ses propres antiviraux et qu’on trouve encore aujourd’hui des failles dans certains produits qui ne sont même plus supportés?…

Ma réponse est “NON!”, quelle que soit la sincérité de la transaction au moment où on signera avec, on aura intérêt à lire de très très près les termes du contrat et j’ai peur que celui-ci contraigne beaucoup plus l’abonné qu’il n’engage microsoft ne serai-ce que dans la qualité de ses services.

Le 28/04/2014 à 16h 06







Drepanocytose a écrit :



De mieux en mieux chez Microsoft.



En voilà une bonne idée : ca permettra à l’utlisateur moyen de ne pas pirater pour ne pas avoir à acheter la licence totale en une fois. Un echelonnement des frais en quelque sorte.



Et puis on en a marre des oiseaux de mauvaise augure qui nous rabachent “mon PC m’appartient mon PC c a moi je fé ce ke je veu avek” : on parle de l’OS là.

Si tu veux un OS qui t’appartienne, tu deviens barbu et tu te coupes du monde de l’entreprise qui fonctionne majoritairement sous MS, si toutefois tu arrives à faire fonctionner Linux avec toute sa complexité infâme par rapport à la facilité d’utilisation et d’apprentissage d’un windows. C’est d’ailleurs pas pour rien que Mme Michu et les entreprises prefèrent MS.



Non, là c’est bien : un abonnement c’est un partenariat profitable entre MS et vous. Avancer ensemble sur du long terme pour un monde informatique meilleur.





DI d’une PME de 48 âmes ça fait plus de 5 ans qu’on a fait le grand saut et assez étonnamment grâce au chef comptable à qui j’avais soumis en test un logiciel de compta/gestion, OpenSI. Le produit l’a tellement séduit qu’il a accepté de bosser double avec son aide pendant 6 mois parallèlement on a informatisé les stocks et la production qui ne l’étaient pas auparavant d’abord sosu Ubuntu et maintenant Mint, tout le monde à adoré l’économie de pas engendrée dans les ateliers. Ensuite ce fût le tour des commerciaux et des postes de secrétariat; il n’y a plus aujourd’hui que le studio prépresse à utiliser des macs et quelques autres systèmes.

Si nous avons pris cette initiative c’est parce que quand a été annoncé LongHorn alias Vista microsoft avait déjà averti de l’imminence de l’arrêt d’XP.

Eh oui tous mes collègues ont la mémoire extrêmement courte, il aura fallu plus de 6 ans à microsoft pour mettre sa menace à exécution.


Le 28/04/2014 à 12h 59







Se7en474 a écrit :



Nooon ! Je veux continuer à utiliser Windows illégalement comme tout le monde ! <img data-src=" />

Personnellement je ne suis pas prêt de changer de Windows 7 qui est parfait (acheté légalement hein ^^)





Je connais des gens qui ont 3 bécanes installées avec la même licence “légale” de Win7.


Le 28/04/2014 à 12h 43







Vanilys a écrit :



Alors que c’est tout le contraire pour moi :

Je préfère payer une licence, ou un abonnement, qui est clair, net, et précis, plutôt que la société pour laquelle j’utilise le produit ou le service dit “gratuit” se serve de moi de manière détournée pour se faire du fric à mes dépends, sans même que je puisse en avoir conscience même si j’en subis les conséquences.



Chacun son truc ….





S’imaginer que Microsoft ne l’a jamais fait ou ne le fera jamais est encore pire : un abonnement signifie que la société te demanderas de t’identifier d’une manière ou d’une autre et je te conseille de bien lire entre les lignes du contrat que tu signeras le jour où tu vas t’abonner.


Le 28/04/2014 à 12h 25

S’aliéner une clientèle de cette façon sera la dernière tentative de fidélisation absurde.

Il ne faut pas oublier d’où vient le succès de windows : c’est le consentement non avoué à voir une licence légale pour trois installations.

Qu’est-ce qui fait le succès d’Android aujourd’hui? La gratuité non?

Et il y a de fortes chances que petit à petit cela devienne le secret de la réeussite de ChromeOS.

Donc oui, il y a des chances que les entreprises les moins averties crachent au bassinet mais peu que microsoft voit mon eco leur tomber régulièrement dans la poche.

Le 25/04/2014 à 10h 50







Jed08 a écrit :



Tu as pas compris ce que je veux dire !

Il y a des version de distribution qui ne sont plus supportée par les éditeurs (Canonical, Red Hat, etc…). Du coup quand une boite ne fait pas la migration et se retrouve avec une version qui n’est plus maintenue par l’éditeur (comme les gens qui sont toujours sous XP à l’heure actuelle) elle fait quoi ?



L’avantage de l’open source c’est que tu peux maintenir ça toi même, mais en terme de prix ça va revenir assez cher pour que ça soit un minimum efficace.

De plus, les gens compétents pour la maintenance de l’OS à plein temps ne sont pas forcément intéressé pour faire ce travail.



Donc dans ce cas, opensource/proprio ils sont tous dans le même bateau !





Argument totalement fallacieux


Le 25/04/2014 à 10h 16







Jed08 a écrit :



Les conséquences sont les mêmes.

Le cout peut être plus important qu’un support Windows étendu, et si du jour au lendemain tu te retrouves avec un Linux vulnérable à plusieurs failles sans personne pour les corriger, je vois pas ce que tu peux faire hormis pleurer et prier que personne ne va les exploiter avant que la migration soit faite.







Je veux dire qu’un expert Linux a d’autres ambition dans la vie que de faire du support à plein temps. Et que s’il était si facile de former des gens au support bas niveau de Linux ça se saurait.

Du coup, trouver des gens capable de comprendre le code de l’IDT, la GDT, la pagination, du scheduler, du file system d’un OS pour pouvoir corriger les vulnérabilités et de la embaucher à plein temps pour du support risque d’être difficile.







Le type qui est capable d’avancer de tels arguments n’a rien compris à Linux : envisager d’arrêter le support de Linux passerait par l’obligation de convaincre une communauté toute entière de gens indépendants avec leur libre arbitre d’arrêter tous simultanément partout dans le monde. C’est ambitieux mais difficile à réaliser.


Le 25/04/2014 à 09h 52







Jed08 a écrit :



J’arrive pas à te faire comprendre que oui la théorie dit que c’est possible, mais qu’en pratique tu te retrouves avec des contraintes qui sont les même qu’avec le choix propriétaire : couteux, le support peut s’arrêter à tout moment !



Oui mais les conséquences sont beaucoup moins importantes.



Le 25/04/2014 à 09h 36







Jed08 a écrit :



La question se pose aussi avec le cas ou l’entreprise embauche des experts Linux à plein temps pour avoir leur propre support.

Qu’est ce qui se passe si jamais les gens décident de se barrer et qu’on trouve personne de compétent pour les remplacer ?





C’est beaucoup moins grave d’abord parce qu’il y a des pans entiers de code qui sont mutualisés et que la plupart du temps c’est déjà le résultat d’un travail collaboratif externalisé, c’est toute la différence avec le boulot développé sur une base microsoft où il faut demander à tout le monde la permission de bidouiller et comment avant de pondre une ligne.


Le 25/04/2014 à 09h 28







gokudomatic a écrit :



D’accord, mais ma question est alors: pour encore combien d’années?

Un jour ou l’autre, MS va finalement dire qu’il ne fait plus du tout le support, même en échange de tout l’or du monde. L’entreprise fera quoi à ce moment?





C’est même pire que ça : un système n’est rien sans le hardware, la politique du “good enough” a ses limites dans le temps; que se passera-t-il quand lors du remplacement d’un périphérique on sera obligé d’en changer avec une nouvelle interface ou sans pilote?


Le 25/04/2014 à 09h 21







Konrad a écrit :



Au contraire ça change tout.

Microsoft ne veut plus supporter un de ses logiciels : tu l’as dans le baba.

Un prestataire ne veut plus supporter un logiciel libre : tu payes un autre prestataire pour le faire. Là, un système d’appel d’offres prend tout son sens, et plusieurs entreprises peuvent se mettre à proposer du support.





Tu n’es pas sérieux là : il n’y a qu’un seul moyen de le faire : c’est que Microsoft accepte d’ouvrir ses sources sinon à la rigueur on ne limitera la casse que sur les logiciels tiers mais XP restera la passoire qu’il a toujours été, voir avec des trous supplémentaires.


Le 25/04/2014 à 09h 13







metro557 a écrit :



Je suis dans une PME de 180 personnes, et beaucoup des postes de nos conducteurs de travaux et à mon avis, du reste du personnel, est encore sous XP !

Mais, ca n’a pas l’air d’inquiéter notre “informaticien”, un prestataire tiers.









metro557 a écrit :



Je suis dans une PME de 180 personnes, et beaucoup des postes de nos conducteurs de travaux et à mon avis, du reste du personnel, est encore sous XP !

Mais, ca n’a pas l’air d’inquiéter notre “informaticien”, un prestataire tiers.





Ce cas de figure est extrêmement grave mais je trouve qu’éthiquement ça ne devrait pas être aux politiques de régler le problème.

Pour les PME qui n’ont pas de service informatique intégré, elles sont finalement les plus à l’aise pour faire jouer la concurrence et auraient dû depuis longtemps s’inquiéter du problème, à l’inverse celle qui ont du personnel qualifié se retrouvent souvent avec un staff informatique arrivé à son seuil d’incompétence, pour les banques et les assurances c’est notoire ces équipes refusent toute évolution depuis un bout de temps; ils ne savent plus comment répondre aux nouvelles sollicitations simplement parce qu’ils sont restés “collés” sans remise en question depuis 10 ans.


Le 24/04/2014 à 01h 29







macin a écrit :



Je me considere comme un Power user Mac et la derniere fois que j’ai eu un kernel panic date d’au moins 5 ans… Pourtant j’ai un MB Pro 13 de 2009 et j’achete un nouvel iMac tout les 2 ans. Alors pour avoir des kernel panic il faut soit voir du cote de la RAM, d’un HDD defaillant ou d’un soft qui fait plante le systeme (peut etre meme un soft en tache de fond qui n’est pas compatible 10.9?). OS X est beaucoup plus stable que Win7 (qui est deja bien stable).





Moi je connais une version d’OSX qui peut rivaliser avec Seven c’est la regrettée 10.6.8 SL; après on ne peut pas dire que Lion ait été une grande réussite ML à été d’une assez bonne tenue et il n’y a eu que 7 versions dont la plupart résolvaient des problèmes ou des améliorations concernant surtout des applicatifs livrés avec; là il s’agit assez précisément de ralentissements ou de lags video directement liés au système et sur tous types de machines et ça a l’air d’être assez grave nos sommes sur la Beta 3 de la 4ème version et le problème n’est pas résolu.


Le 23/04/2014 à 16h 31







A-snowboard a écrit :



Tu parle d’utilisation pro et spécifique la non ? Ce qu’apple ne vise plus depuis un moment.

En utilisation normale, qui est quand même le plus grand public, t’as quoi : le mac et un écran…



Attention, ça veut pas dire que les problèmes doivent pas être réglés, mais a mon avis les priorités ne sont pas les mêmes entre le partie normal et les usages spécifiques (qu’il faut par ailleurs reproduire pour trouver le problème)







Non non je parle par exemple de l’utilisation d’un Mac mini avec un écran lambda ou d’un Macbook Rétina avec un second écran à résolution VESA ou DP auquel cas il faut switcher entre les interfaces et les chipsets, etc… les cas de figures sont innombrables y compris chez les utilisateurs privés.


Le 23/04/2014 à 13h 43

Cette pseudo ouverture est un aveu masqué d’impuissance, ce dont Apple ne se vante pas c’est que Mavericks est assez “buggy” entre autres sur la vidéo qui provoque de manière très aléatoire des soucis de tous ordres.

En effet il faut disposer d’un système unique pour gérer simultanément des écrans divers et variés (Rétina, 4K, plus tous les autres), quelquefois plusieurs chipsets graphiques de nature différentes (Nvidia/Intel) aujourd’hui revenir à AMD avec le MacPro sans parler des fonctions CPUGPU requises dans la 3D ou la video sans parler du contrôle des flux via le TB… ou de la gestion des interfaces graphiques dans un mix Retina/HD.

Bref vous l’avez compris ça ne fonctionne plus très bien et tous ces cas provoquent des dysfonctionnements d’arrière plan sur d’autres fonctionnalités.

Ne vous étonnez pas qu’après bientôt 6 mois de sortie du MacPro celui-ci sorte encore au compte goutte et que nous en soyons déjà à la Beta3 de la V3 du système après à peine 6 mois.

Le 11/04/2014 à 04h 24

La prohibition booste artificiellement la valeur du produit; à la fin du 19ème siècle la culture du chanvre était libre, ce sont les américains qui pour des basses raisons de marché du coton qui en ont fait un marché réglementé en le “diabolisant” avec la désaffection des industriels pour cette fibre sa culture est devenue rare et spécialisée pour ses sous produits devenus illicites dans la plupart des pays occidentaux mais pour des raisons de marché et non de santé publique sinon nous fumerions tous notre saucisson au dessert à prix modéré.

C’est de cette manière que M. Nègre à cru pouvoir maintenir un marché sans comprendre que ce n’était pas sa nature physique (CD, DVD) qui était en cause mais son mode de diffusion.

C’est pourquoi j’éviterais la diffamation à l’égard de ce Monsieur qui n’a tout simplement compris qu’il fallait investir dans des serveurs plutôt que de chercher à rentabiliser ses presses à CD/DVD.

Et fort du constat de la baisse de ses revenus ils a préféré rameuter quelques abrutis de politiques et d’artistes (souvent ceux qui ne ce sont jamais confrontés à la scène).

En conclusion : pourquoi chercher à réglementer un marché alors que la plupart des consommateurs sont prêts à changer de mode de consommation; il suffit de trouver le juste prix de distribution du produit sous sa nouvelle forme : suffisamment bas pour que le consommateur ne tente pas de se le procurer autrement sufffisamment cher pour que les frais de distribution et l’artiste soient payés..

Rappelez-vous la surtaxe française sur les CD vièrges du jour au lendemain les achats se sont faits en masse sur les sites belges ou retrouvés par palettes sur les trottoirs de montgallet.

Le 09/04/2014 à 08h 56

C’est l’avenir de l’ATX: il n’y aura plus qu’ intégrer les interfaces clavier/souris/HDMI/Sata et hop le beau desktop!

Le 31/03/2014 à 12h 53

Si ça fonctionne bien en Turquie pourquoi pas en France?

Le 20/03/2014 à 15h 16

Pour moi je trouve que les options additionnelles finissent par coûter cher au globale surtout quand on trouve un Utilite aux capacités et puissances largement supérieures pour 99$http://utilite-computer.com/web/utilite-models

Bien sûr on n’a pas la joie du bidouillage mais le résultat est plus immédiat.

Le 18/03/2014 à 14h 31

Je serais aussi assez pour que le CSA fasse un rappel aux média pour l’abus d’utilisation “d’Iphone” et également sur les relais outranciers offerts aux “keynotes” d’Apple qui n’ont pas leur pareil pour les autres constructeurs.

Le 31/01/2014 à 08h 35







baldodo a écrit :



Ils auraient peut-être du proposer une carte-mère mini ITX 8 ports SATA en option … parce que ça court pas les rues surtout si tu veux pas mettre 300 euros mini dans la CM. Déjà en 6 ports S-ATA j’ai rien vu en dessous de 150 euros (en mini ITX)





http://www.asrockrack.com/general/productdetail.asp?Model=C2750D4I

Celle-ci est déjà disponible à 380€ en france

et on attend celle là qui ne devrait pas tarder et qui sera sans doute un peu moins chère.



http://www.asrockrack.com/general/productdetail.asp?Model=C2550D4I

Elles ont quand même 12 ports Sata

Avec TDP à 20W pour la grosse et moins pour la petite soeur


Le 01/01/2014 à 14h 07

Moi, ce qui m’épate c’est la taille du bloc d’alim, je sais que les TDP des nouvelles UC Intel sont vraiment très bas mais il y a aussi deux CG pas sensées être pourries et ça me paraît vraiment petit et il supporte aussi les ports son. L’autre truc, c’est la backplate 10 ports, je sens que’Apple va se gaver en près-vente avec ces deux pièces; ils devraient aussi prévoir de vendre aussi des multiprises secteur parce qu’avec leurs TB chaînable ils vont en solliciter de la prise secteur.

Le 26/12/2013 à 07h 57

Simple, en général il s’agit d’objets culturels, quand je passais un disque, un livre, une VHS à un ami ou un membre de ma famille, je ne m’attendais pas à avoir les éditeurs sur le dos. Ceux-ci sont eux fautifs d’avoir totalement négligé le numérique qui permettait d’augmenter leur possibilités de diffusion en persistant à croire à leur business modèle. J’en veux pur preuve le combat de cet excellent M. Nègre qui aura persisté à vouloir promouvoir ces CDs et DVDs alors que le public était déjà à la dématérialisation. Où se trouve le véritable site Universal distribuant son catalogue? Quand on sait que les pionniers du genre on commencé il y a plus de 10 ans avec des moyens minimes, franchement les éditeurs n’ont pas lieu de se plaindre.

Le 19/12/2013 à 13h 55







raysar a écrit :



L’équivalent en composants reviendrai à 14k$

youtube.com YouTubePour une fois, c’est “pas cher”

<img data-src=" />





Ce qui va coûter très cher ce sera le mauvais choix de configuration au départ car ces bécanes seront difficilement upgradable et les périphériques hors de prix.

L’idée même de comparer avec du matériel équivalent est simplement absconse.

Quand au prix effectivement apparemment bas dans un premier temps, il suffira d’une année au plus pour que le constat s’inverse.

Ce qui me semble de toutes manières idiot dans ce concept c’est la foison de connexions que ça va engendrer et je sais d’expérience que c’est le véritable talon d’achille de ce design.


Le 16/11/2013 à 15h 44

Finalement le TB ne serait qu’un simple déport du PCIe ou d’un bus plus rapide, à l’extérieur du boîtier mais je n’y crois absolument pas pour les raisons suivantes :




  • les cordons contiennent une partie logique (ce qui me semble le défaut majeur)

    la fiabilité venant d’une connectique simple et rustique

  • la norme prévoit une porteuse électrique sous dimensionnée qui ne peut alimenter que des périphériques à très faible consommation (ce qui veut dire que ceux qui espèrent limiter la quantité de câbles vont être obligés d’acheter d’énormes prises multiples pour alimenter tous leurs périphériques) que penser du nouveau macpro qui disposera de 6 ports?… Hormis le design de base on peut imaginer la débauche de fils dans tous les sens.

  • qui dît connectique externe dît augmentation de pannes accidentelles (connecteurs mal ajustés, accrochages divers, courts circuits…)

    On assiste là à une nouvelle tentative d’Apple d’imposer un vieux principe sériel déjà adopté en son temps avec l’AppleTalk, le SCSI et le FireWire et on peut dire que même si ces technologies ont été en leur temps à la pointe du progrès elles ne brillent plus par leur persistance sur le marché et on été vite remplacées par des solutions plus simples et surtout moins coûteuses.

Le 15/11/2013 à 13h 25







WereWindle a écrit :



Et puis les flux financiers, ça parle moyen à l’électeur.





Bah si ce n’est vrai que pour les paumés qui finissent à l’extrême .

Le gros problème aujourd’hui c’est que c’est ce que croient les politiques d’ailleurs c’est là dessus que le gouvernement actuel échoue, en oubliant qu’il n’a pas été élu pour ses projets mais contre son prédécesseur et en plus il se contre-dît tous les jours.

Le précédent par contre faisait comme Malek : “regardez mon doigt”


Le 15/11/2013 à 11h 35

Ce qui est agaçant c’est de voir qu’on est prêt à fustiger les évidences mais surtout pas à toucher les vrais problèmes actuels : à mon sens ce serait plus intéressant de s’intéresser aux flux financiers qu’aux flux internet aujourd’hui.

Le jour où nous serons tous en slip, lui y compris, nous n’aurons plus ce problème.

Le 13/11/2013 à 09h 54

“C’est pour vous?”, “Non c’et pour offrir”, “Ah? Eh bien ce sera plus cher!”.

Moi qui ai toujours considéré que la culture devait circuler… jamais je n’aurais pensé qu’un jour, le moindre législateur viendrait coller son nez là dedans.

Le 23/10/2013 à 08h 05

L’utilité pour Google c’est de s’offrir une année supplémentaire de développement d’outils complémentaires et de finir par convaincre les retardataires qu’ils peuvent se passer allègrement de microsoft.

Le 21/10/2013 à 13h 56







the true mask a écrit :



En milieu pro c’est tout le contraire

http://allthingsd.com/20131017/businesses-writing-custom-apps-for-mobile-are-overwhelmingly-choosing-apple/



C’est là où Apple va jouer un gros coup , avec de plus en plus d’entreprises qui cherchent à développer leurs apps internes pour iOS





Vœu pieu d’AppleGeek ce papier ne concerne que les EU; je pense que les entreprises européennes, quand elles auront sorti les pieds de la mélasse microsoft traiteront le problème avec plus de circonspection.


Le 11/10/2013 à 08h 57

C’est vrai pour le design on se contenterait d’un simple rectangle et je trouve la résolution un peu “limite” mais il faut voir ça peut être bon après tout pour le prix autant ne pas être trop exigent.

Le 10/10/2013 à 12h 41







32KK32 a écrit :



c’est je pense la stratégie de départ





Non au départ il n’y a aucune stratégie, juste 5 ans à rattraper et la bêtise à été de s’inspirer de Win86 en espérant qu’à terme la puissance augmentant des procs ARM arrive à combler le déficit d’optimisation.


Le 10/10/2013 à 12h 15

C’est juste une blague !

Et surtout la preuve que RT est une abomination, sachant que microsoft a en réalité fait une adaptation médiocre et non optimisée de Win8 pour ARM alors qu’il fallait se contenter de ce qui avait originalement été développé avec WinCE et toutes ses faiblesses; aujourd’hui s’entêter à maintenir RT pour les architectures les plus musclées est juste un aveu déguisé en porte de sortie histoire de dire aux clients qui l’ont acheté qu’ils n’ont pas été roulés dans la farine. RT est juste un pétard mouillé.

Le 02/10/2013 à 15h 25

Effectivement ces boîtes ont avant tout besoin de leaders visionnaires plutôt que charismatiques Bill et Steve ont incarné les deux mais aujourd’hui pour Microsoft, avant tout éditeur de système et de logiciels la remise en question est sûrement difficile quand la concurrence décide que le système est une question annexe, voir gratuite et que la suite Office se voit concurrencée de toutes parts par des solutions qui finissent par convenir au plus grand nombre.

Ballmer à crû que le business modèle d’Apple pouvait se décliner à Microsoft; çà a tellement “choqué” les utilisateurs et ses partenaires que ça débouche sur un four. Je doute que ce soit un ancien marchand de bagnoles qui réussisse à faire une analyse fine pour trouver une porte de sortie à cette situation mais un cheval de retour comme Billou ne ferait à mon avis pas mieux.

Le 02/10/2013 à 11h 14

Je préconiserais la vente liée obligatoire d’un synthétiseur de douleur.