votre avatar

Glouk

est avec nous depuis le 17 décembre 2008 ❤️

168 commentaires

Le 01/03/2013 à 15h 52







tsubasaleguedin a écrit :



Me souvient de mon iiyama CRT 21p avec un pitch de 0.21 …. on arrive juste a retrouver la finesse … d’il y a 10 ans.



Alors oui les ecrans plats ont apportés les grandes diagonale, mais putin a quand un vrai dot pitch qui faisait toute la difference d’une surface a une autre. ( 0.22 versus 0.21 versus 0.19 ( le top :) )







Précisons : sur les grands écrans.

Parce que je ne sais pas si tu en as entendu parler, mais on a maintenant sur des écrans jusqu’à 15 pouces des résolutions bien plus élevées que ce que tu cites là. ;-)


Le 01/03/2013 à 15h 49







Grebz a écrit :



On commence seulement à rattraper ce que les CRT faisaient déjà il y a plus de 10 ans, j’avais un 22 pouces qui montait tranquille jusqu’en 2048x1536 en 43.







Non, on ne commence pas « seulement » à rattraper.

Il y a 9 ans, on avait déjà des écrans LCD de 30 pouces affichant du 2560x1600.





les CRT présentaient l’énorme avantage de pouvoir changer de résolution sans perte de qualité d’image, contrairement aux LCD.





Euh… non.

Il y avait bien sûr une perte de qualité (logique, vu que l’espacement des trous du masque de l’écran correspondait à une résolution précise et n’était donc pas compatible par magie avec d’autres résolutions). C’est juste qu’elle était moins visible que sur les écrans LCD, notamment à cause de la forme des pixels et de la qualité de départ.







Et tant qu’à faire de monter la résolution, ce qui est une excellente chose, pourquoi reste-t-on encore et toujours avec ce foutu ratio 169 qui est une aberration sur un ordinateur.





Ah, là, je ne peux qu’être d’accord avec cette remarque !


Le 01/03/2013 à 15h 43







tsubasaleguedin a écrit :



Eu le vga est analogique il n’a pas de limite







L’analogique a aussi ses limites, bien sûr.

Mais concernant le VGA, on se heurte apparemment surtout à la capacité des convertisseurs numérique?analogique des cartes graphiques (et celle des convertisseurs inverses dans les écrans, mais ceux-là on peut oser espérer qu’ils sont correctement dimensionnés pour la définition des écrans auxquels ils sont intégrés).



Je reformule donc ma question : existe-t-il à l’heure actuelle des cartes graphiques dont la sortie VGA supporte du 2560x1440 ?

Ce qu’on trouve annoncé un peu partout quand on fait une recherche (rapide) sur ce sujet, c’est un maximum de 2047x1536. Nettement inférieur, donc.





le hdmi et les premier cable numerique ont été une regression pour l’utilisateur à ce niveau…





Pas tant que les normes correspondantes évoluent pour suivre les capacités des écrans et des cartes graphiques du moment.


Le 01/03/2013 à 15h 34







Gericoz a écrit :



non j’ai un vieux IIyama 19” CRT qui affiche du 1920 * 1440 en vga <img data-src=" />







Ce qui reste bien inférieur à la définition dont on parle ici et ne répond donc pas du tout à ma question. Merci tout de même pour la réponse. :-)


Le 01/03/2013 à 15h 31







Dacoco974 a écrit :



Bah si, c’est l’hdmi avant la 1.4 qui ne le permet pas.







Comme ça a déjà été signalé, le HDMI 1.3 permet depuis plusieurs années d’utiliser un écran en 2560x1440.


Le 01/03/2013 à 08h 38

N’est-il pas bizarre d’avoir une entrée VGA sur ce modèle ? Il me semblait que le VGA ne permettait pas d’utiliser une définition si élevée.

Le 14/02/2013 à 11h 41







carbier a écrit :



Pose toi d’abord la question de pourquoi tu veux ces specs… si c’est simplement pour faire de la bureautique…







Peut-être tout simplement parce que la bureautique, c’est justement une activité qui implique beaucoup de lecture. Et du coup, un écran à haute résolution est très agréable.

Même pour glander sur le web en trollant sur via des commentaires d’actualités, un écran à haute résolution, c’est bien plus agréable — puisque là encore, c’est une activité impliquant beaucoup de lecture.





Mais bien sûr, comme tu le sais très bien sans oser l’avouer, ces machines sont capables de bien plus que de la bureautique.

Pour faire du développement notamment — autre activité impliquant beaucoup de texte — je trouve ces machines très agréables (et pas qu’à cause de l’écran, évidemment).



C’est marrant, cette idée en vogue comme quoi un écran à cette résolution est un truc uniquement pour graphiste. C’est même assez débile : pourquoi un graphiste voudrait-il ne plus pouvoir voir les pixels sur lesquels il travaille ?

Ces écrans sont surtout faits pour la lecture. Ce qui est une activité quasi-continue quand on utiliser un ordinateur (ne serait-ce que la lecture des éléments d’interface).


Le 14/02/2013 à 11h 34







kail a écrit :



Je le sais bien mais une comparaison sur l’autonomie entre un système mac et un système windows, ce sont 2 poids 2 mesures.







Ben… non.

Un des avantages d’un Mac, c’est justement d’être vendu avec Mac OS. Et on ne devrait pas utiliser cet avantage dans les comparaisons parce que… parce que quoi, en fait ?



Un Mac, c’est une machine vendue pour être utilisée sous Mac OS. Son autonomie, on la mesure naturellement en y faisant tourner Mac OS (sauf le cas exceptionnel où on a l’idée saugrenue d’acheter un Mac uniquement pour le faire tourner sous un autre OS).

Pour la comparaison avec l’autonomie du PC, tu peux faire tourner ce dernier sous Linux plutôt que Windows, si c’est comme ça que tu envisages de l’utiliser.

Mais pour le Mac, c’est normal de citer son autonomie lorsqu’utilisé avec son OS.


Le 14/02/2013 à 11h 08







Antwan a écrit :



Les SSD soudés à la machine <img data-src=" />







Ça tombe bien qu’ils ne le soient pas… :-P


Le 23/01/2013 à 17h 26







SebGF a écrit :



Quel peut-être l’intérêt pour Microsoft de porter ses applications phares telles qu’Office ou encore Internet Explorer sur un système concurrent (au hasard : Mac OS) ?







Juste pour chipoter : Microsoft n’a pas porté Office sur Mac OS.

Microsoft a d’abord développé Office sur Mac, puis l’a porté plus tard sur Windows.

;-)


Le 31/12/2012 à 17h 53







ouragan a écrit :



parce que c’est gratuit de faire produire en Chine ?

Si tu veux vraiment comparer, faut pas faire comme les journaleux de TF1 sans cervelle, faut comparer les coûts également.







Oui, il faudrait pouvoir comparer les coûts.

Mais pour autant, il ne faut pas se lancer dans un concours avec les journaleux de TF1 pour savoir qui a le moins de cervelle.

Vu que tu ne connais pas l’investissement qu’Apple aurait dû consentir pour faire mettre en place par Foxconn la même ligne de production en Chine, tu ne peux pas comparer les coûts. Comme on ne sait pas quelles machines seront produites aux US, il existe même la possibilité que, pour les produire en Chine, il n’y aurait pas eu à mettre en place une nouvelle chaîne de production, mais juste à faire évoluer une chaîne existante, à un coût potentiellement largement inférieur au montant cité par Tim Cook.



Bref, impossible en l’état de faire la moindre comparaison sérieuse.



Du coup, la seule chose qu’on puisse faire est de rappeler le coût annoncé pour cet investissement et souligner qu’en raison de ce coût non nul, la production aux US sans coût supplémentaire par rapport à la Chine n’est peut-être pas pour tout de suite.

Ce que j’ai écrit précédemment, quoi.

Rien de plus, rien de moins. Sauf à se tromper sur le sens du mot « peut-être ».


Le 30/12/2012 à 08h 36







x689thanatos a écrit :



Et comme cela me fait toujours un peu sourire, ce détail m’est restée en tête.







Moi ce qui m’a fait sourire, c’est un peu l’inverse : le fait que, malgré tout le matériel Apple que j’ai pu déballer, je n’avais jamais vraiment remarqué ce détail (en tout cas, pas assez pour bien m’en souvenir).

À force de regarder les étiquettes sur l’emballage avant ouverture, notamment pour noter des numéros de série, j’ai bien retenu la double mention qui y apparaît. Pareil à force d’utiliser le matériel, on s’habitue à voir ce qui y est écrit.

Mais manifestement, les inscriptions croisées au cours du déballage, je les ai toujours juste survolées. Il a fallu ta série de photos pour que je me rappelle qu’il n’y apparaissait que la partie californienne.


Le 29/12/2012 à 22h 17







x689thanatos a écrit :



Ça saute pourtant aux yeux quand tu déballes du matériel apple.







Ah, ok. Toi, en fait, tu parlais uniquement des inscriptions qu’on peut trouver dans l’emballage. Je n’avais pas compris ça (faut dire que ce n’était nullement précisé).

Oui, là, c’est effectivement l’endroit où Apple se lâche un peu pour rappeler le « designed in California » sans être contraint de le faire suivre du « assembled in China » (ce que je trouve un poil stupide puisque le terme « designed » rappelle implicitement que la fabrication n’a pas été faite là).



En revanche, là où c’est important (d’un point de vue légal, mais aussi d’information du client), à savoir sur l’extérieur de l’emballage et sur les produits eux-mêmes, on trouve bien évidemment les deux mentions, bien évidemment ensemble, et bien évidemment de la même taille.



Au sujet des inscriptions contenues dans l’emballage, notons toutefois que, sur aucune des photos que tu as citées pour illustrer ton propos, on ne voit apparaître cette histoire de « made in China » écrit à une taille plus petite. Ce qui serait puéril, il faut bien l’avouer.


Le 28/12/2012 à 11h 40







Aphelion a écrit :



Après on parle bien ici d’assemblage, et non de fabrication. Donc tu peux être certain que la plupart des composants viendront toujours d’Asie et que seulement quelques uns d’entre eux seront fabriqués aux Etats-Unis.







Les composants, il viennent d’un peu partout dans le monde (y compris des États Unis) déjà à l’heure actuelle, pour finir par être assemblés tous en semble en Chine.

Il n’y a pas de raison que ça change pour un assemblage ailleurs.

On peut juste se demander où seront produites les plus grosses pièces, à savoir les boîtiers. Si elles continuent à être fabriquées en Chine, l’assemblage américain ne sera effectivement pas équivalent à l’assemblage chinois (en termes de quantité de travail fait sur place).





Pour le prix, comme tu l’a dis ils vont certainement automatiser un maximum ce qui finalement ne leur reviendra peut-être pas beaucoup plus cher. En tout cas tu peux être certain que si ils le font c’est parce qu’ils ne perdent pas d’argent ou très peu.





Ça, c’est sûr. Et dans ce cas, il serait effectivement dommage de se priver de faire ça.

Cela dit, pour l’instant, ça représente un investissement d’une centaine de millions de dollars, dixit Tim Cook. La production sans coût supplémentaire n’est donc peut-être pas pour tout de suite, mais après un certain délai.


Le 28/12/2012 à 11h 32







x689thanatos a écrit :



De mémoire, Les premiers models étaient fabriqués aux usa (les models en forme de clavier).







Ce n’était pas que les premiers modèles (qui n’avaient d’ailleurs pas une forme de clavier).

Apple a produit des machines aux USA dans les années 70, 80 et 90. Seuls les portables (enfin, à partir des PowerBook au début des années 90) n’ont, me semble-t-il, jamais été produits là-bas (au début, c’était au Japon, avant de bouger vers ailleurs).

C’est à partir du début des années 2000 que la production a commencé à être massivement délocalisée en Chine. On doit pouvoir retrouver un article de cet époque relatant la fermeture de la dernière usine américaine d’Apple.


Le 28/12/2012 à 11h 21







x689thanatos a écrit :



Les capitales ont étés utilisés pour représenter la différence de taille.

Mais si j’avais mis en gras j’aurais eu la même réponse







En effet, tu aurais eu la même réponse. Puisque tu avais explicitement indiqué que la taille était plus petite pour la seconde partie, il n’y avait aucun besoin de donner l’impression qu’il y avait également une autre différence.



Je le répète : sur tous les produits concernés, c’est bien évidemment écrit strictement à la même taille, généralement sur la même ligne (sauf bien sûr pour les produits trop petits pour que tout tienne sur une seule ligne). J’en ai vu passer suffisamment pour le savoir.



Prenant généralement moins le temps de regarder les emballages, en revanche, je ne peux être affirmatif concernant ceux-ci. Il est donc bien possible que sur cet emballage d’iPod que tu as, les deux inscriptions ne soient pas au même endroit. Je suis en revanche vraiment surpris de cette histoire de différence de taille.

En tout cas, je viens de vérifier sur un carton d’iPad 2 : là, les deux inscriptions sont ensemble, à la même taille.



Bref, évite de généraliser comme tu l’as fait, à partir d’un seul exemple, alors que quelqu’un qui s’y connaît mieux t’explique que, d’après son expérience, ce n’est généralement pas comme tu le décris.





C’est du made in china, il n’y a pas à avoir honte à l’afficher.





En effet. C’est d’ailleurs affiché. Où est le signe de honte, du coup ?





Je ne pense pas qu’apple soient les seuls à faire les ébauches de leurs appareils ailleurs qu’en chine.





En effet. Rien sur leurs produits ou leurs emballages n’essaye d’ailleurs d’indiquer qu’ils sont les seuls à le faire.







Description simple et claire.

Non, argument commercial.





Si, description simple et claire. C’est un fait, il n’y a pas à le discuter.



Et effet, cette description est utilisée comme argument commercial. Personne ne l’a nié.

Et les deux ne sont en rien incompatibles, donc on se demande vraiment ce que ce « non » vient faire là.





La encore, pas la peine de trouver des excuses. Rien ne les empêchent et il n’y a pas de tord.





En effet, il n’y a pas de tort.

Et du coup, personne ne cherche à trouver des excuses à quoi que ce soit.

Juste à rappeler des faits. Et corriger des affirmations erronées.


Le 27/12/2012 à 15h 11







x689thanatos a écrit :



En même temps, apple est tres adepte du :



DESIGN IN CALIFORNIA

made in china (police toute petite)







La police utilisée est strictement la même, et de la même taille, pour la partie « Designed by Apple in California » et la partie « Assembled in China ».

Et il n’y a pas non plus une partie en capitales et l’autre en minuscules.

Bref, c’est juste une description simple et claire du processus de conception et de fabrication du produit.


Le 27/12/2012 à 11h 26







Elbutcher a écrit :



Toutes les mercredis il y a des centaines de milliers de gens faisant la queue devant les cinémas pour etre sur de voir le dernier blockbuster avant tout le monde alors que 15 jours après on peut arriver 10 min avant le début de la scéance.







Bien que je ne l’aie pas précisé, ça fait bien évidemment aussi partie de ces cas qui suscitent chez moi une interrogation. Encore une fois, rien de spécifique à Apple.





Chacun voit midi a sa porte, ca ne sert pas a grand chose de juger.





En effet. Pour ma part, je m’en garde bien, me contentant de me poser des questions (en gros, essayer de comprendre quel plaisir on peut y trouver).





mais si ça leur fait plaisir …





Et en plus, ils offrent par la même occasion un petit plaisir aux trolls anti-Apple de base qui peuvent se lâcher ici en parlant de moutons, de victimes de la mode collectionneurs de toutes les versions d’iPhone, voire de décérébrés. :-)


Le 26/12/2012 à 23h 37







gavroche69 a écrit :



Cela dit qu’ils aient ou pas une version antérieure, il faut quand même avoir une vie bien vide pour passer la nuit devant un magasin quel qu’il soit juste pour être le premier à avoir le précieux…







Ah, ça…

J’avoue qu’à chaque fois que je vois ça, je me pose des questions. Que la file d’attente soit devant un Apple Store, ou devant tout autre magasin pour un autre machin qui sera disponible par millions quelques jours ou quelques semaines plus tard.


Le 26/12/2012 à 19h 00







brazomyna a écrit :



à la sortie de l’iPad retina, c’est exactement ce que j’avais avancé (en gros: à un moment, metre une résolution délirante ne fera rien gagner en usage, mais imposera des compromis sur le reste: puissance, autonomie) ; on me prenait pour le hater du village. Là, d’un coup, ça devient une évidence.







Ça a toujours été une évidence.

Comme il était (et reste) une évidence que dans le cas de l’iPad à écran « retina », ce n’était pas une résolution « délirante » et ça a réellement fait gagner en usage, rendant dont les compromis acceptables.

Rien de nouveau.

Et on passerait toujours pour un « hater » à affirmer le contraire. :-P


Le 26/12/2012 à 18h 58







127.0.0.1 a écrit :



De mon point de vue, ce n’est pas vraiment comparable avec les gens qui font la queue la veille au soir pour acheter le machin version 3 alors qu’il ont déja le machin version 2 sorti à peine un an plus tot.







Et rien qu’en regardant leurs têtes dans quelques photos de files d’attente, tu arrives à déterminer qu’ils ont tous (enfin, une majorité d’entre eux) la machin version 2 ?!?



‘tain, trop fort le localhost. Impressionnant.


Le 15/12/2012 à 23h 13

Myst, ça pourrait être marrant.

Le 12/12/2012 à 10h 32

En gros, Microsoft ne veut pas suivre les mêmes règles que tous les autres, quoi. Classique.

Le 12/12/2012 à 10h 21

Ah. Du coup, tu as dû attendre un peu pour jouer à Myst. ;-)

Le 11/12/2012 à 18h 01







Reparateur a écrit :



je connais pa ce jeux







C’est plus vieux (encore plus vieux, diront certains p’tits jeunes) que les deux jeux que tu cites. Un des tous premiers jeux sur CD ROM, à un époque où peu de monde disposait du lecteur nécessaire.

Sorti pour Mac à l’époque, puis, me semble-t-il, porté quelques années plus tard pour Windows.

Pendant un moment, on le voyait tourner (ou au moins sa bande annonce) sur les Mac en démo dans les Fnac, comme démo de ce qu’allait permettre le CD ROM.


Le 09/12/2012 à 21h 54







djshotam a écrit :



Les 1ers jeux sur cd c etait quelques choses…. megarace, 7th guest… magnifique.







Personnellement, je suis resté fan de Spaceship Warlock.

« Magnifique » n’est peut-être pas l’adjectif le plus approprié pour lui, mais je me rappelle que c’était impressionnant, à l’époque (1991), de voir ce que le CD ROM pouvait apporter pour les jeux. Et il était plutôt fun. Ah, Stella… :)


Le 09/12/2012 à 21h 47



1992 était définitivement une période charnière pour le monde du numérique. En effet, c’est cette année que le premier SMS a été envoyé, que la première mouture d’Open GL a été dévoilée et que des jeux vidéo de légende sont sortis : Wolfenstein 3D et Prince of Persia pour ne citer qu’eux.





C’est juste pour chipoter, mais Prince of Persia c’était plutôt 1989…

Le 29/11/2012 à 12h 10







arno53 a écrit :



Mais pas assez pour qu’une appli puisse a la fois tourner sur Mac Os et Ios ou c’est une limitation voulu par Apple ?







Pas assez, en effet.

Ce n’est pas une limitation artificielle, c’est juste dû à des différences fondamentales entre les deux interfaces graphiques, qui ne sont pas du tout destinées au même type d’interaction avec l’utilisateur. Des éléments d’interfaces différents, mais surtout des comportements (et structure) des applications très différents entre les deux environnement, font qu’il n’est ni possible, ni souhaitable, d’avoir des applications capables de tourner à la fois sur l’un et l’autre de ces systèmes.

En revanche, avoir le maximum d’API en commun permet de faciliter le portage d’un environnement à l’autre.


Le 27/11/2012 à 13h 12







charon.G a écrit :



En fait IOS et OSX partagent la même base système mais ce n’est pas le cas du framework. Cocoa touch diffère de Cocoa.







À noter qu’une grosse partie est commune entre Cocoa et CocoaTouch, tout de même.


Le 26/11/2012 à 20h 57







freechelmi a écrit :



je n’ai que peu testé mais je trouve l’autonomie du MBP pas terrible pour l’instant par rapport a mes Clevo sous ubuntu







Juste pour être sûr qu’il n’y a pas d’ambiguïté : il s’agit bien de l’autonomie du MacBook Pro tournant sous Mac OS et non sous Ubuntu, c’est bien ça ?





Mais avec Linux ( et surtout ubuntu) je pense que la donne change. Au dela du prix de l’OS, il y a surtout la possibilité d’avoir un OS leger et agréable “a la MacOS” sur des multiples machines.





Pas d’accord. Les choix ergonomiques des divers environnements graphiques disponibles pour Linux sont bien plus proches de ceux de Windows que de ceux de Mac OS.

On a donc plutôt des OS « à la Windows » (mais avec leurs différences, bien sûr, qui sont bien plus marquées maintenant qu’il y a dix ans). Pour ces environnements et les applications qu’on y trouve, il y a encore une nette différence par rapport à Mac OS en termes de maturité de l’interface.

Il est impossible de dire qu’on va utiliser sans problème un Linux à la place de Mac OS. Pour quelqu’un qui veut un Mac pour Mac OS, un Linux n’est pas une solution de remplacement.


Le 26/11/2012 à 14h 10







freechelmi a écrit :



Reste le calvier retroeclairé qu’on ne retrouve que sur peu de machines Clevo.







Et le trackpad, qui à vue de nez a du potentiel pour être bien moins plaisant que celui d’un MacBook Pro (notamment en raison de sa taille et d’une surface apparemment en plastique, donc vite usée). C’est un élément qu’on ne peut évidemment comparer qu’en testant les deux machines (de préférence un bon moment chacune), aucune liste de caractéristiques ne permettant vraiment d’en déterminer la qualité.



La même chose est à dire d’ailleurs au sujet de l’écran : la taille et la définition sont les mêmes entre cette machine et un MBP, mais ça ne suffit évidemment pas à savoir s’ils sont de la même qualité, ce que seul un test des deux machines permet de déterminer de façon sûre.



Dans les différences, outre l’épaisseur déjà mentionnée, il reste aussi la batterie, plus faible sur ce Clevo ; un port Thunderbolt ; un port FireWire 800 ; un système type MagSafe pour l’adaptateur secteur (et il faudrait au passage comparer la taille et le poids des adaptateurs secteurs) ; etc.



Attention, je ne suis pas en train de dire que ce Clevo est une mauvaise machine. C’est même un truc intéressant vendu à un très bon prix pour les caractéristiques annoncées (qui incluent des choses qu’on ne trouve pas dans le MBP).

C’est juste que, contrairement à ce que certains pourraient être tentés de croire, ce n’est pas l’équivalent d’un MacBook Pro pour moins cher. Juste une machine différentes, aux caractéristiques différentes, et du coup vendue à un prix différent — et intéressant un public différent.

Quelqu’un vraiment intéressé par un Mac ne sera jamais intéressé par l’achat de cette machine à la place, malgré son prix. Pareil dans l’autre sens.





D’autant que, dans les différences, il faut bien sûr compter l’OS. Et c’est sans aucun doute la plus importante des différences (sauf si on est arrivé à se convaincre que Mac OS n’a aucun intérêt et notamment qu’il ne serait absolument pas sérieux de faire du développement dessus).


Le 25/11/2012 à 01h 23







-SQP- a écrit :



Je vais surement faire le (vieux) con, mais ca fait assez longtemps que je fais du “PC”, vu que mon premier modèle était un 8086 à 8Mhz avec 640Ko de RAM.







Tiens, ce début me fait remarquer que cette différence de sens donné au terme « PC » doit être encore un truc issu de l’opposition jeunes cons/vieux cons.

C’est assez récent de voir des gens en France utiliser « PC » au sens « personal computer », et à chaque fois que j’en ai croisés il s’agissait de gars trop jeunes pour avoir connu l’usage du terme complet « compatible IBM PC » et la compétition avec d’autres plateformes (généralement aussi suffisamment jeunes pour être convaincus que Windows a de tout temps eu un menu démarrer, ou que Linux existe depuis l’aube des temps et a été honteusement copié par un fabricant de lecteurs MP3 pour créer « OsX »).


Le 25/11/2012 à 01h 10







Para-doxe a écrit :



Ekimia:http://shop.ekimia.fr/8792-portable-clevo-w130ew-sans-os-ubuntu-.html







Notons que dans la configuration que tu as décrite plus haut, ça fait plus de 1000 €.

Mais c’est juste pour chipoter, hein.


Le 25/11/2012 à 01h 07







Para-doxe a écrit :



J’ai en plus accès aux composants, le fabricant fournissant un manuel complet pour le démonter. Je peux y changer RAM, disque, cartes mini-PCIe et même le CPU.







Et donc, c’est ce genre de machine qu’il faut posséder pour avoir le droit d’être pris au sérieux quand on dévoile qu’on est développeur ?

Comme apparemment avec un Mac ça passe pas, j’me renseigne… ;-)


Le 24/11/2012 à 21h 15







pti_pingu a écrit :



Comme ceux qui reprennent un acronyme et en change le sens car changement de langue







Oui, ça ce serait un peu du même niveau.

Heureusement, le cas évoqué ici n’a rien à voir car, comme je l’ai déjà précisé plus haut, il ne s’agissait pas de la reprise d’un acronyme mais juste du nom d’un modèle précis d’ordinateur. Nom qui, par la suite, a également servi à désigner toute une famille d’ordinateurs inspirés de ce modèle.

Le fait que ce modèle ait été nommé (sans grande inspiration) juste à partir d’un acronyme préexistant, créant ainsi un petit souci d’ambiguïté, ne concerne que les anglophones, puisque chez nous cet acronyme n’existait pas. Ça nous simplifiait la vie pour utiliser sans aucune ambiguïté « PC » au lieu de « compatible IBM PC ».



Ce n’est que bien plus tard que certains incultes, convaincus par la triste évolution du marché informatique que le terme « ordinateur personnel » était forcément synonyme de « compatible IBM PC », se sont du coup mis à croire que « PC » était juste la reprise de l’acronyme anglais de « personal computer ».

Ce n’est pas parce que cette idée s’est répandue plus que de raison qu’elle est juste pour autant.


Le 24/11/2012 à 16h 05







pti_pingu a écrit :



A ce que je sache, PC est un acronyme anglais, donc Personal Computer







Oui, c’est bien ce que j’ai dit : en anglais, ça a ce sens.

En français (en tout cas en France), son usage n’est pas du tout né de ce sens. Ce terme est arrivé ici seulement pour désigner l’IBM PC et les compatibles qui ont suivi. Juste une marque, un nom de modèle, en fait.



Vouloir l’utiliser maintenant comme un acronyme et récupérer du coup le sens anglais, c’est juste montrer un peu d’inculture.





je te laisse aller voir la référence sur wiki qui indique sur la rubrique PC un truc tout à fait étonnant





Wikipedia comme référence ? Non, merci, vraiment, sans façon. ;-)







Donc, hormis les retro-geek qui conserver pour le fun des vieux engins à base de de Power PC ou de Motorola (avant les PPC)





Une petite correction au passage : Motorola, ce n’était pas qu’avant les PowerPC, puisqu’il y a eu de très nombreux Mac équipés de PowerPC fournis par Motorola.







Donc, non, ce n’était pas juste, cherches pas





Ben si, c’était bel et bien juste. Sinon je ne l’aurais écrit. Logique.


Le 24/11/2012 à 15h 58







misterB a écrit :



Rien ne vaut le qwerty pour les dev, surtout pour le mac ou en azerty les [ ] | { } sont chaud a trouver alors qu’ils le sont directement en qwerty <img data-src=" />







« Chauds à trouver », est relatif. Mais surtout, ça n’arrive qu’une fois, ça : une fois qu’on les a trouvés (en une dizaine de secondes maximum, vu qu’il y a un visualiseur de clavier fait pour ça), les combinaisons de touches correspondantes sont très simples à retenir.

Pour mon cas, à l’usage, je ne note pas de différence de vitesse entre l’azerty et le qwerty pour ces caractères (bizarrement, quand je développe, ce n’est vraiment taper qui me prend le plus de temps, mais plutôt réfléchir à ce que je dois taper).


Le 24/11/2012 à 15h 42







arkansis a écrit :



Chacun achète ce qu’il veut, mais des machines qui me laissent pas le choix du système qui me plaît ne correspondent pas à la vision que je me fais de l’informatique. Si je veux pouvoir installer Windows ou Linux, je veux pouvoir le faire en toute liberté.







Au fait, tu n’as toujours pas expliqué en quoi un Mac ne te laisse pas installer Windows ou Linux en toute liberté…





Quant à OSX et à Apple, c’est bon pour les personnes qui n’y connaissent rien et qui veulent que ça fonctionne simplement.





Tout à fait !

En revanche, j’espère bien qu’en écrivant ça, tu n’avais pas en tête le sens correspondant à « ce n’est bon que pour… ». Car là, tu aurais tout faux. :-)


Le 24/11/2012 à 15h 36







pti_pingu a écrit :



Il aurait voulu être crédible, il aurait dis des IBM PC, car vu la signification de PC, un Lenovo ou un Mac, c’est la même chose.







En français, « PC » n’a jamais signifié « ordinateur personnel » comme en anglais, mais juste « compatible IBM PC », hein. Sa remarque était donc tout à fait crédible.


Le 11/11/2012 à 20h 29







Djaron a écrit :



et quand on voit ce qui arrive à un dev qui a la pretention de mettre une appli “libre” sur l’app store







Ben il ne lui arrive rien de particulier à partir du moment où lui et les éventuels autres développeurs de l’application acceptent les conditions de publication sur l’App Store. Aucun problème dans ce cas.


Le 11/11/2012 à 20h 17







mirandir a écrit :



du libre, tu en dans un smartphone sur deux







Pourquoi seulement un sur deux ?

BSD, WebKit, etc., ça ne compte pas comme libre pour toi ?


Le 18/10/2012 à 21h 10







GentooUser a écrit :



Apple n’a fait que rendre hype un truc dont tous le monde se foutait : les tablet PC







Pas vraiment, non.

Les TabletPC étaient aussi au format tablette (plus ou moins). C’est leur seul point commun avec l’iPad, qui n’est pas leur descendant.

L’iPad n’est pas « un TabletPC rendu hype », c’est une autre approche de la tablette informatique (concept qui n’est pas né avec les TabletPC).


Le 15/10/2012 à 21h 06







Sebdraluorg a écrit :



Woaw ! Je sais pas ce que tu fumes, mais ça doit être de la bonne ! J’en veux <img data-src=" />







À te lire, je n’ai pourtant pas l’impression que tu aies besoin de quoi que ce soit. :-P





Et donc, ça trouve son origine dans l’utilisation de la base 2 (ce que j’ai commencé à dire au passage) puis c’tout ? Et pis s’en va ?





Ben… ouais, c’est tout. Qu’est-ce que tu veux dire de plus dessus ? On ne va tout de même pas se lancer dans l’écriture d’une thèse sur le sujet…





car si ça trouve son origine dans la base 2, y a quand même des raisons non ?





Ouaip. Peut-être bien tout bêtement le fait de pouvoir utiliser toutes les valeurs d’adresses possibles pour un nombre donné de bits, non ? Puisqu’avec tailles de RAM ne tombant pas sur des puissances de 2, on aurait « gaspillé » des adresses possibles.





Tu me reproches quoi ? D’en avoir trop dit ?





Je ne te reprochais pas grand chose — puisque j’ai même écrit que j’étais d’accord avec ta dernière version.

Je soulignais juste que, à un endroit, tu donnais l’impression de sous-entendre que tu ne faisais que donner une nouvelle formulation de ce que tu avais écrit à l’origine — ce qui n’est pas le cas, ce que tu avais écrit à l’origine étant faux.

Pas vraiment un reproche, donc. Surtout de la précision.

C’est utile, la précision. En particulier pour les développeurs. :-)


Le 15/10/2012 à 17h 56







Sebdraluorg a écrit :



Donc je le redis: (mais différement en espérant qu’on tombe d’accord) l’unite Gio est basée sur la base 2, bien qu’exprimée en base 10 <img data-src=" />







Là, je suis un peu plus d’accord — en revanche, tu n’as pas redit la même chose différemment, tu as écrit là autre chose que ce que tu as écrit à l’origine.



Le fond du problème, c’est que tu étais parti à chipoter en écrivant quelque chose de faux. S’il n’y avait pas eu explicitement écrit « chipotage » juste devant, ça serait évidemment passé sans être relevé. :-P





Et tout de même, pour finir de chipoter : plutôt que « l’unité Gio est basée sur la base 2 », je dirais simplement que ce système d’unités trouve son origine dans l’utilisation de la base 2 en informatique.



Pas tellement pour les contraintes techniques que tu énonces en revanche. ;-)


Le 15/10/2012 à 17h 09







Sebdraluorg a écrit :



En informatique on parle de Gio car justement c’est calculé sur une base 2…

Ensuite, quand tu le représente, forcément tu utilise une base 10, mais à la “base” comme je disais…. :p







Ne pas confondre le fait qu’un de ces systèmes d’unités utilise des puissances de 2, avec l’utilisation de la base 2. Ces deux concepts n’ont rien à voir.



Donc, je le redis : il s’agit juste d’une utilisation d’unités différentes, pas de bases différentes. Quand on parle de 30 Gio ou de 30 Go, on utilise dans les deux cas la base 10.


Le 15/10/2012 à 13h 24







Sebdraluorg a écrit :



Sur quoi d’autre veux-tu de baser pour juger de la légèreté d’un OS mobile ?

Ce qui intéresse c’est clairement son autonomie… non ?







Sa consommation d’espace de stockage.

Sa consommation de RAM.

Sa vitesse.

Son impact sur l’autonomie.



Chacun de ces 4 points intéresse l’utilisateur et peut être vu comme un critère de « légèreté ».


Le 15/10/2012 à 13h 22







Sebdraluorg a écrit :



Sinon pour chipoter encore un peu, on parle plutôt de base 10 et de base 2…







Si on veut chipoter vraiment (et correctement), on fait remarquer qu’il s’agit dans les deux cas de la base 10, juste avec une utilisation d’unités différentes. ;-)


Le 11/10/2012 à 11h 37







indyiv a écrit :



Il aurait fallu un peu plus de 10 ans pour que Windows suive l’exemple de Linux en la matière …

reste plus que MacOS … (mais ce n’est pas demain la veille <img data-src=" />)







C’est vrai qu’on n’a jamais été capable d’installer et utiliser Mac OS sur un périphérique de stockage externe (la clef USB n’étant qu’une des variantes de ce principe). Non non non.



Ah, ben si, en fait. :-)

(à l’exception du boot depuis l’USB qui pendant quelques années n’était pas disponible sur les Macs — à une époque où la vitesse de l’USB ne rendait pas ce processus bien intéressant).





Et ce n’était sûrement pas possible (et fait très régulièrement) des années avant même que Linux n’existe. Non non non non non.



Ah, ben tiens… si aussi. ;-)





Mais du coup, une partie de ton message était juste : ce n’est pas demain la veille. Elle est passée depuis longtemps, la veille.


Le 06/10/2012 à 14h 35







Alkore a écrit :



Le PowerBook 100 Compaq LTE doit se retourner dans sa tombe…







Non, non, il s’agit bien du PowerBook 100 — sinon j’aurais écrit « Compaq LTE ». :-P



Ce Compaq représentait sans doute une étape de l’évolution, mais ne colle pas avec ce qui était dans le texte de l’article (avant correction) : « le premier ordinateur portable moderne ».

Quand on voit le LTE, avec son clavier en avant et aucun dispositif de pointage, on se dit instantanément « années 80 ».

Alors que les PowerBook 100, 140 et 170, eux, ont introduit l’aspect qu’on retrouve encore maintenant, avec clavier en arrière d’un repose-poignets au centre duquel on trouve le dispositif de pointage. Quand on les voit (en particulier le 100, plus fin moins épais que les deux autres) et qu’on ne connaît pas leur histoire, on ne conclut pas instantanément qu’il s’agit de portables de plus de 20 ans.


Le 05/10/2012 à 22h 09



C’est en effet, en 1992 que le premier ThinkPad 700c est sorti des chaines d’assemblages d’IBM, apportant avec lui le premier ordinateur portable moderne et plus vraiment une machine transportable que l’on connaissait alors.





Hum.

Une erreur comme ça, c’est pour faire concurrence au graphique de Lenovo (et son explication du « premier portable de l’industrie à intégrer le sans-fil » en 2000) ?

Le PowerBook 100 doit se retourner dans sa tombe…