votre avatar

Tophe

est avec nous depuis le 6 septembre 2003 ❤️

191 commentaires

Le 31/03/2014 à 13h 09

La vraie question est de savoir quel profile Zigbee a choisi Samsung : si c’est du Zigbee LightLink, c’est une bonne nouvelle, puisque compatible avec les Hue de Philips.


Le 27/02/2014 à 22h 47







caesar a écrit :



Win CE ^^….





Au niveau arguments, j’attendais plus !



Car pour bosser avec les outils de génération de noyau de CE 4.2 jusqu’à Compact 2013, pour tester (et apprécier) d’autres OS, de MQX à différentes solutions de génération de Linux embarqué (Yocto, Buildroot, … ) l’outillage microsoft est vraiment au dessus.


Le 27/02/2014 à 10h 25







CaptainDangeax a écrit :



Bah, on le savait. MS en embarqué, ce n’est pas ce qui se fait de mieux. J’ai eu il y a longtemps une version de démo de QNX qui tenait sur une disquette 1,44 avec le noyau les drivers de base pour les machines de l’époque (cirrus et S3 VLB pour la carte graphique), une couche IP avec driver de modem RTC, un browser et quelques utilitaires, ce qui donnait un système utilisable avec un 386 et 4MB de ram. Blackberry a eu beaucoup de succès avec cet excellent noyau, et leurs déboires actuels n’enlèvent rien à la qualité du produit.







Mouarf.

RIM a surtout racheté QNX pour en faire la base de BBX, ils n’en sont en rien les créateurs.

Qu’est-ce qui te fait dire que MS en embarqué, “ce n’est pas ce qui se fait de mieux” ?



Sur la partie temps réel, QNX et Compact offrent les mêmes caractéristiques.

Au niveau tarif, il n’y a pas photo, Compact est moins cher que QNX, et a apporté au moment de sa sortie des services que faisaient payer très chers Windriver (stack USB, réseau, …)



Le seul réel argument technique sur lequel MS est à ce jour critiquable concerne le support des archi processeurs : si Ford travaille avec des plateformes SH4, oui, ça pêche… (Compact 2013 fonctionne sur archi x86 et ARMv7 mais on peut toujours travailler avec Compact 7 pour avoir le support d’autres archi proc).


Le 27/01/2014 à 08h 31







Anna Lefeuk a écrit :



L’idée est séduisante et le fait d’avoir équipé en câblage RJ45 10 Gbits devrait me permettre de jouer sur la TV. Mais je vais désormais devoir me battre avec ma moitié pour la décrocher de Top Chef et The Voice…et là, c’est pas gagné



Je vais encore devoir vendre mon âme





Si t’as des plans pour acheter du matériel 10Gbits à pas cher, n’hésite pas à nous en faire profiter <img data-src=" />



Après, pour du streaming, du gigabit suffit sans problème.


Le 16/01/2014 à 15h 59

@TBirdTheYuri : regarde sur eBay les cartes et switchs infiniband !

Le 15/01/2014 à 16h 25

Modulo l’alimentation qui est plus puissante, en quoi est-ce différent des boitiers TB existants ?

Sonnet (pour ne citer que ce fabricant) propose déjà des boitiers TB et TB2.



Cependant, je suis heureux de voir que le prix pour ce type de boitier est en baisse <img data-src=" />

Le 07/01/2014 à 09h 23







charon.G a écrit :



Pas vraiment car on restait sur du Windows. Là on parle de remplacer Windows même si le nom pourrait subsister pour des raisons marketing.







Non, les noyaux CE et NT n’ont strictement rien à voir. Il y a certes une compatibilité parce que l’API Win32 est utilisée dans les 2 cas pour le dev applicatif, mais côté CE, c’est un sous ensemble.

Les compilateurs ARM ne sont pas les mêmes par exemple. (chose qui a changé avec Compact 2013, qui utilise la même ABI que Windows 8)



La possibilité d’utiliser des applications Phone7 sur Phone 8 est effective grace au Compact Framework 3.9.


Le 07/01/2014 à 08h 43







metaphore54 a écrit :



WP 7 ====&gt; WP8 changement de tel obligatoire alors que l’OS a eu moins de changement que là, donc je ne me fais pas d’illusion.







Moins de changements ! <img data-src=" />

On est passé d’un noyau Windows CE (version 6.0 qui ne gérait à l’époque “que” 512Mo de RAM au maximum et était singe core only) vers un noyau Windows NT. Le changement est du même ordre de grandeur.


Le 06/01/2014 à 18h 34







legurt a écrit :



moi ça me tente beaucoup.

je fais construire une maison passive et je me garde l’électricité.

mon besoin:

toujours avoir une luminosité équivalente a celle du jour dans ma maison.



faut que les ampoules soient pilotables selon l’heure,qu’elles s’allument et s’éteignent en auto suivant les cycles du jour,et selon la présence de la personne dans la pièce.

faut aussi se défaire d’android,personnellement je préfère un système propriétaire sans déballage de vie privée.



sinon ça me tente bien,surtout si on peu enregistrer des ambiances pour le cinéma,les soirées,la lecture ou les activités famille.



Enfin un truc d’intéressant dans ce fatras d’inutilité!



c’est quoi la durée de vie des ampoules?

pollution des ondes? est ce que la mise en route de mon micro onde ca va éteindre mes ampoules?







On est sur une durée de vie théorique de 15 000h.

Au niveau pollution des ondes, aucun souci : le ZigBee ne communique que lors d’un transfert de données.

Tu disposes de certains scénarios intégrés avec le Philips Hue (réveil en douceur, geofencing à partir de ton iPhone, …) mais tu peux tout contrôler grâce à une API REST documentée !



Y’a 1 an, j’avais mis en place SiriProxy sur une raspberry pi pour contrôler les ampoules avec mon iPhone, par Siri.

C’est drôle à mettre en place, mais je ne l’ai pas gardé.

Finalement, là où je l’utilise le plus, c’est quand je regarde un film, ou en soirée.



Modulo le manque d’interrupteur ZigBee (pour éviter d’allumer la lampe avant de pouvoir la contrôler avec le smartphone), j’en suis très content.


Le 06/01/2014 à 18h 28







darkbeast a écrit :



c’est une blague ? Vendre des ampoules que l’on ne peut pas allumer avec un interrupteur c’est aussi con que de vendre une voiture sans fenêtres (ho wait)







Si tu éteins ta lampes avec l’interrupteur “classique”, tu ne pourras pas l’allumer avec le smartphone.

Quand tu l’allumes, ça s’allume ; je souhaiterais avoir un “autre” bouton pour éteindre l’ampoule, sans pour autant éteindre l’électronique de contrôle.

D’où ma demande concernant les interrupteurs ZigBee.


Le 06/01/2014 à 17h 18

A noter que les philips Hue sont aussi bien intégrées à IFTTT :https://ifttt.com/hue

Et la communauté autour des Philips Hue est plutôt bonne.



Le vrai point navrant concerne les boutons physiques ZigBee Light Link qui … n’existent pas :(

Car c’est bien de pouvoir contrôler par son smartphone, mais juste pour allumer la lumière dans le salon, c’est chiant.

Le 31/12/2013 à 18h 37







WereWindle a écrit :





  • donner un côté plus user-friendly/intuitif que la manipulation d’un joystick





    Oui, mais non : ce n’est pas du tout un joystick qui est manipulé, mais bien une sorte de gant qui ajoute un retour sensoriel.

    Du coup, c’est beaucoup plus intuitif que d’avoir le bras dans le vide : pour saisir l’objet, il ferme la main complètement.



    Après, en effet, c’est un projet de recherche, pas un produit industrialisé.


Le 27/12/2013 à 14h 00







FREDOM1989 a écrit :



Ouais mais bon les coeurs ne sont pas les même. Et à ce niveau je peu pas en vouloir à l’acheteur lambda de pas comprendre déjà qu’ilntel fait n’importe quoi avec ses marque i3/i5/i7 où l’on retrouve sous l’appelation i5 le 4200U qui n’atteint pas les perf d’un Celron desktop.







Bien sur, c’était juste pour exagérer l’inadéquation de la future fourniture des smartphones et de la réalité des besoins.

Et le rapport entre le nombre de coeurs entre PC et smartphone est cependant pertinent : aujourd’hui, très peu de programmes peuvent réellement tirer parti d’un grand nombre de coeurs sur PC.

Alors, sur un smartphone, c’est risible : 8 coeurs, sérieusement <img data-src=" />


Le 27/12/2013 à 11h 27







sioowan a écrit :



Faut voir si ce ne sont pas les constructeurs d’écrans qui poussent à ça via des tarifs plus intéressant que les hd et full HD.



Pour voir les pixels sur mon gs3 hd ready, faut s’appeler Steve Austin.

J’ai plus de 10 à chaque oeil en plus.







En effet, ils se tirent la bourre pour gagner des marchés, mais je doute que ça soit à des tarifs moindres ;)


Le 27/12/2013 à 11h 26

C’est chouette : on aura des smartphones disposant d’une meilleure résolution que nos écrans de PC, avec plus de coeurs et autant de RAM.



Pour jouer à angry birds qui sera resté en 640x480 pour assurer la compatibilité avec les téléphones d’ancienne génération. <img data-src=" />

Le 27/12/2013 à 11h 29







after_burner a écrit :



Je comprends pas très bien, c’est peut être à cause de la redevance TV, si on peut avoir toutes les chaînes avec son smartphone, ou bien c’est une application qui a besoin de la télé pour fonctionner?



<img data-src=" /><img data-src=" />







Il me semble que pour utiliser cette application, tu dois avoir une BBox. Du coup, tu es déjà éligible à la redevance, que tu utilises l’application ou non.



C’est uniquement pour faire plaisir aux “ayants droits” (qui pourrissent la vie plus qu’autre chose…)


Le 27/12/2013 à 11h 06







bichon_1er a écrit :



Sans parler du DHCP qui m’empeche de diffuser mes blue-rays PC vers ma TV…







Passe en IP Fixe. <img data-src=" />


Le 22/11/2013 à 22h 33

En même temps, les avocats de Samsung ont admit que leur employeur avait copié Apple…

http://macdailynews.com/2013/11/13/in-opening-statement-samsung-lawyer-admits-co…



Au lieu d’inviter des responsables de Samsung et de présenter de nouveaux arguments, ils ont essayé de minimiser l’impact de la copie sur les produits Samsung.

Ben… #Fail.



Mais bon, vu la marge de Samsung Electronics, je ne vais pas les plaindre !

Au pire, ils ont toujours activité de pêche. <img data-src=" />



Concernant les commentaires liés au protectionnisme, ce n’est pas comme si la situation inverse ne s’était pas déjà rencontrée ( procès Apple-Samsung, mais en Corée), mais il n’y a donc que les Européens pour vraiment respecter ce code de conduite ? On se fait juste enfler au final…

Le 09/10/2013 à 12h 12







lincruste_2_la vengeance a écrit :



C’est surtout intéressant si ça évite les vitres étoilées après une chute, parce qu’il y a une épidémie chez mes potes. La forme incurvée en elle-même me paraît pas fondamentalement utile sur une surface aussi réduite.







Bien vu !


Le 09/10/2013 à 12h 12

Tant qu’à avoir de l’OLED, pourquoi ne afficher sur une portion de l’écran l’heure en permanence ?

Et laisser le reste de la dalle éteinte.



Vu la temporisation entre l’action et l’affichage réel, on a plus vite fait d’appuyer sur un bouton pour voir l’heure et les notifications.



PS: à l’auteur de la vidéo : l’autofocus, ça se désactive <img data-src=" />

Le 17/09/2013 à 15h 16







jaretlafoudre a écrit :



Actuellement pas grand chose…



Déjà il ne suffis pas de juste recompiler pour beneficier d’optimisation, le code doit etre re-ecrit pour vraiment beneficier des avantage du 64bits, mais encore même là le genre de code qui peut reéllement beneficier de l’apport du 64bit utilise généralement déjà un autre type d’optimisation genre les intructions NEON (128bit et capacitée de faire 4 calculs en meme temps, ou même les shader qui utiliserons le GPU)







Si tu utilises le framework Apple pour du calcul vectoriel, une recompilation suffit. (et ça inclu LAPACK, entre autres).


Le 17/09/2013 à 14h 20







kidz a écrit :



raison de plus pour ne pas faire de version 16go malheureusement il est encore là et avec 20€ de plus! <img data-src=" />





Ca serait intéressant que, lors du téléchargement de l’application, seule l’archi utilisée (32bits ou 64bits) soit téléchargée.



Vu les derniers messages liés à l’AppStore ( Mac4Ever ) il n’est pas impossible qu’Apple ait mis ça en place : à voir quand le 5s sortira <img data-src=" />


Le 17/09/2013 à 14h 15







lincruste_2_la vengeance a écrit :



Ouais voilà, ça sert à rien.







Je t’invite à t’enregistrer sur le site d’ARM (c’est gratuit) pour constater les évolutions entre AArch32 et AArch64.

Si on limite le passage au 64bits à simplement “plus de RAM”, le PAE existe aussi sur les cortex A15, qui dispose d’un espace d’adressage de 1 To.


Le 17/09/2013 à 14h 09







ErGo_404 a écrit :



C’est du vent pur et dur.



ARM a fait une archi 64 bits pour se lancer sur le marché des serveurs, ce n’était pas spécialement destinés aux smartphones.

Apple vend ça comme un truc de fou pour épater le débutant qui a déjà vu 64 bits quelque part sans trop savoir ce que c’est.

C’est peut être un plus pour certaines applis, mais à mon avis c’est négligeable pour le gros des utilisations du téléphone, et ça mérite même pas qu’ils en parlent sur leur site.







Sinon, c’est un vrai moyen d’augmenter les performances du proc : rien que le changement d’architecture de AArch32 vers du AArch64 permet de gagner 20% pour des applis 32 bits. (sur des calculs entiers, je ne parle pas de calculs flottants, qui disposent d’autres améliorations).



Et avec la nouvelle archi, il y a 2x plus de registres : les compilateurs d’aujourd’hui sont friands des registres en plus !

La différence n’est pas aussi visible que l’évolution x86 -&gt; x64, mais elle là quand même.



Finalement, est-ce plus pertinent d’indiquer qu’il y a un proc 64 bits ou qu’on a un octo cœur dans son téléphone ?

Faut bien que les personnes du marketing mettent en avant une caractéristique.


Le 29/08/2013 à 22h 29







lysbleu a écrit :



Le VP8 a quand même été utilisé pour skype, et le h264 a certe fait ses preuves, mais il est dépassé et pour l’utiliser il faut payer…





Entre VP8 et h264, il ne faut pas dire que le h264 est dépassé !



Quant à l’argument du “payant”, je trouve que c’est un faux argument: qui a déjà parmi vous réellement payé une licence h264?

Dans les smart phones, c’est inclus dans l’IP de décompression vidéo du SOC.

Dans vos PC, c’est aussi inclus dans le prix de la carte graphique.

Alors, pourquoi promouvoir quelque chose qui fait pareil, mais en utilisant plus de ressources CPU au même tarif frontal ?

Car tout de même, ce n’est pas demain la veille qu’on n’aura plus de décodage h264 intégré, au contraire : le h265 sera intégré aux soc futurs.


Le 26/04/2013 à 16h 03

Est-ce qu’il y a une signature du code executable sous Android, et est-ce que cette signature est vérifiée au lancement d’une application ?

Le 26/03/2013 à 21h 00







patos a écrit :



En même temps, pour les RT, ça avait été annoncé ^^

Et GPEDIT.MSC n’est pas dispo sur RT? (Je demande hein, ma tablette étant une win8pro, je sais pas les limitations exactes de WinRT)







Oui oui, tout à fait, et depuis que ça a été annoncé, je râle ;-)

Il était aussi annoncé que la gestion de flotte de tablettes et de Windows Phone pouvait être effectuée avec un serveur Exchange.

Malheureusement, Exchange ne permet pas toute la flexibilité qu’avaient les GPO.



Sans compter qu’il faut un serveur Exchange là où il y avait juste un DC… Pas le même prix. Et je ne connais pas encore les possibilités offertes par Office 365 de ce point de vue.


Le 26/03/2013 à 06h 17







doum a écrit :



Ce que tu n’aurais pas pu faire sur la majorité des autres tablettes <img data-src=" />







Ben… il y a le bluetooth qui fonctionne très bien.







patos a écrit :



Activer le clavier Azerty complet, tout simplement (paramètres, général, rendre la disposition standard disponible).







Merci, je testerai quand je serai au bureau !



Pour l’anecdote, j’ai du aller dans un menu de gestion réseau pour modifier l’ordre d’accès aux cartes réseaux, pour définir la carte prioritaire, de façon à définir si tout le traffic réseau doit passer par le VPN, ou pas.

Pour ça, il faut activer la barre de menu, donc –&gt; touche ALT.



Et vu qu’il n’y a pas d’intégration dans l’active directory, je ne peux rien pousser par GPO. Miam…



Ensuite, je ne parle pas vraiment en tant qu’utilisateur (ma copine est sous Windows 8, je reste sous Mac chez moi, mais je suis sous Windows 7 et Windows 8 au boulot) mais en tant que développeur.

Je sais combien le noyau NT est bien. Mais le composant COM WinRT n’est vraiment pas fini, tout comme l’intégration globale. Et c’est ça qui est super frustrant !





Ca me tue qu’on ne puisse pas gérer 2 affichages distincts

en mode Windows RT. Mais tout comme je trouve débile la gestion des applications plein écran sous Mac OS X.

Mais bon, c’est comme Windows Phone : impossible de connecter un écran externe, par cable ou WiDi. <img data-src=" /> C’est simplement frustrant, comparé aux autres plateformes mobiles existantes.


Le 25/03/2013 à 21h 53

Mouais.

La gestion du double écran et rien que le fait que le client mail intégré ne soit pas géré dans le menu “Envoyer vers” du bureau m’a vite fait déchanter…



Et avec le clavier tactile, quelqu’un sait comment on fait pour avoir la touche “ALT” ?

La solution la plus rapide pour moi a été de… connecter un clavier USB.

Le 13/03/2013 à 13h 55







Séphi a écrit :



Pour tester avec un compte Office365 d’entreprise sur Lync 2010 Lync 2013 sur WP8 ne fonctionne pas, il me dit même d’installer la 2010 <img data-src=" />







Le Client Windows 8 de Lync 2013 se connecte sans problème à un serveur Lync 2010.

Pour le client Windows Phone 8, je n’ai pas testé, mais tu as donc fait le test pour moi ;-)



Mais bon, je ne vois pas de grosse évolution de fonctionnalité entre les 2 clients.


Le 05/11/2012 à 21h 00







ldesnogu a écrit :



C’est la prochaine architecture Atom qui sera out of order (Silvermont, courant 2013).





<img data-src=" />

En effet –&gt; J’ai toujours tendance à parler aussi des archis annoncées et pas uniquement celles “réellement” sorties. (comme quand on parle des Cortex A57…)


Le 05/11/2012 à 20h 35







brokensoul a écrit :



Certes, il faut feinter un peu, mais l’ordre que j’ai décrit se retrouve normalement (notamment les A15 au dessus de Swift), et n’est d’ailleurs pas très surprenant (les A9 et dérivés restent “in order”, comme les Atom, alors que les A15 sont out-of-order, tout le reste des specs étant au minimum &gt;=..).

Possible par exemple de se faire une idée via les tests de phoronix, sur du A9 TI OMAP comparés aux Atom sur des tâches autres que sunspider, puis en considérant le bonus de Swift et des A15 sur les A9 classiques. A mon sens, pas possible que le Swift soit devant, il a beau être un A9 bien remanié il reste quand même une classe en dessous. Mais Apple a préféré mettre un très gros GPU, pas forcément idiot..







Euh… le Cortex A9 est un coeur out of order.

C’est le Cortex A8 qui est in order, comme les nouveaux Cortex A7 et A5.

La dernière archi ATOM Atom est aussi out of order.

Et si on croit l’article d’anandtech, le swift est plus proche du A15 que du A9.

La différence ne doit pas être si flagrante que ça.



Là où Apple se permet d’avoir un CPU moins performant que le A15, il rattrape ce défaut avec une bien meilleure bande passante mémoire, ce qui permet de mieux exploiter les CPU et le GPU.


Le 17/10/2012 à 09h 52







Vincent_H a écrit :



Non, mais tu achètes un produit Microsoft, quel en serait l’intérêt ?







Euh… sur x86, Microsoft oblige les OEM a laisser la possibilité à l’utilisateur de désactiver le SecureBoot.

Donc, la réponse est plutôt “oui”.


Le 15/10/2012 à 10h 20

Il faut tout de même tempérer ces propos : ce qui prend de la place, ce sont les drivers préinstallés.

Obliger le téléchargement de ces drivers au lieu de les avoirs par défaut permettrait de réduire énormément l’empreinte disque de Windows.



Une installation complête de Windows avec uniquement les drivers nécessaires à la machine (chose que vous pouvez tester avec Windows Embedded Standard) prend 3-4 Go.



Et pour la partie ARM, vu que tous ces drivers n’existent pas, je doute que ça prennent beaucoup plus de place.

Le 08/10/2012 à 08h 58







Jaskier a écrit :



Attends toi au pire, et tu ne seras jamais déçu. Suffit de regarder un peu en arrière pour voir que Apple abandonne complètement le marché pro…



Ils ont arrêté XServe, transformé Final Cut en un iMovie, pas mis à jour les MacPro depuis des lustres, et c’est pas beaucoup mieux pour Logic Pro Studio, qu’ils ont allégés en le passant sur le Mac App Store (certains modules ont été purement et simplement supprimé par rapport à la version DVD). Sans oublier que pour Logic Pro, on ne peut plus l’installer depuis les DVD sous Mountain Lion <img data-src=" /> (je vais faire comment le jour où je change de Mac ? Repasser encore une fois à la caisse ?).







Pour une fois, la comm d’Apple est claire là dessus : les MacPro arrivent en 2013.



Je trouve en effet que l’abandon des XServe est dommage, d’autant plus qu’on n’a pas le droit de Virtualiser OSX Server.



La Transformation de FC en un iMovie Like, je ne suis pas d’accord.

Si on regarde les MaJ depuis le début, ça va dans le bon sens.

Tous les principaux griefs (surtout l’import/export XML et l’import des projets des versions précédentes ) ont été corrigés.



Après, oui, il y a une grosse rupture d’IHM.

Mais ça… Il faut bien faire évoluer les logiciels un jour.

Pour moi, là où ils ont merdé, c’est qu’ils n’ont pas assumé le fait que leur soft soit en beta, et continué de vendre la version précédente. (même si en les appelant, tu pouvais toujours achter FCP).



Quant à Logic, pour l’install sous ML, envoie un mail à Apple, plutôt aux gens de l’AppStore, avec une photo de ta boite ou de ta facture si tu l’as.

Ils devraient te donner un code permettant le téléchargement du soft.


Le 13/09/2012 à 08h 17







vinky_ a écrit :



Qu’on reproche l’augmentation, je suis d’accord que c’est abusé qu’en Europe ça soit encore plus cher quand en Amérique ce n’est pas le cas…







1€ != US\(1.

Si je ne me trompe pas, aux US, il est à US\)
649, hors taxes.

Si l’iPhone 4/4S était “moins” cher, cherchez du côté de l’évolution €/\(.



Et visiblement, Apple prévoit que le \)
allait encore remonter face à l’€ !.


Le 13/09/2012 à 07h 42







exover a écrit :



On peux pas révolution chaque année mais Apple avait tout de même les moyens de faire bien mieux.



Moi ce que j’ai adoré c’est: bande noir pour toutes les applications non optimisé.







En même temps, ça garantie une compatibilité parfaite.

Si l’application est bien conçue, il y a 1 attribut à ajouter à l’application pour indiquer cette compatibilité. Question boulot, c’est donc 0.


Le 26/08/2012 à 12h 30

Techniquement, Samsung fait plus de marge qu’Apple:

Samsung se fournit chez lui en composants : RAM, NAND, proc ,même si ils puisent chez TI ou chez Qualcomm de temps à autres.

Et encore, ce sont eux qui fondent les processeurs des concurrents !

Ils ont donc des relations et des tarifs privilégiés par rapport à Apple : tel que je le perçois, ils ont donc des couts de composants inférieurs à ceux d’Apple.

Je suppose que vu les volumes, les couts d’assemblage doivent être sensiblement les mêmes que ceux d’Apple.



Ensuite, on ne compte souvent que le cout de fabrication de produit.

Par contre, le cout de développement n’est que rarement intégré.

Hors, même si ils ont des ingénieurs soft, le cout de développement de l’OS et des outils associés, est assurée par Google.

Donc, malgré leurs modifications dans Android, ils ont des couts de développement logiciels bien inférieurs à ceux d’Apple.



(Remarquez que je ne compte même pas le temps de maquettage ; je pourrais dire que leur service R&D soft est à Cupertino, et qu’ils n’ont qu’à copier ce qui existe en face.)

Le 25/08/2012 à 17h 54







atomusk a écrit :



Ils n’ont pas choisi “un connecteur similaire” ils ont utilisé le standard existant :



PDMI



ironiquement, ils sont quasiement les seuls à l’utiliser, mais c’est un vrai standard <img data-src=" />





Toutes mes excuses sur ce point alors <img data-src=" />



Je le remplace par… allez : l’indicateur de page d’application : les points blancs en bas de l’écran.

Je ne sais pas si c’est samsung ou Android d’une façon plus générale qui s’est inspiré d’Apple, mais ça participe au côté “on pompe ce qui existe chez le concurrent”.


Le 25/08/2012 à 15h 35







methos1435 a écrit :



Que possède tu comme voiture ? Te poses tu la question tous les jours de savoir si le constructeur de ta voiture est l’inventeur de la roue qui permet de la faire rouler ? du volant ? du moteur ? etc etc… Non Alors pourquoi faire ça pour un smartphone.



Honnêtement on s’en branle de savoir qui à inventé ça ou ça. Reprendre les bonnes idées dans un produit concurrent ça a toujours existé. Pourquoi ça serait différent pour Apple ? …







C’est bien mal connaitre le milieu de l’automobile…

Justement, il y a énormément de brevets en automobile, sur les moteurs, beaucoup de design déposés, des procès et surtout des arrangements.

Et quand un constructeurs souhaite intégrer une techno, ce constructeur paye des royalties.

Exemple à la con : pourquoi penses-tu qu’il y a autant de modèles de voitures hybrides ?

Ou de fonctionnement de “stop and start” (ecomotive, start and stop, microhybride) différents ? Pour éviter de payer des royalties.

Alors, oui, le fonctionnement perçu par le consomateur est sensiblement le même.

Par contre, la techno derrière est différente.

C’est ce qui fait la différence entre inspiré et copié.



Apple a attaqué sur la perception globale du produit, avec les petites touches spécifiques, comme le “bounce”.

Samsung a sciemment copié ce comportement alors qu’il n’est pas intégré dans android de base.

Et les téléphones sous android sont très bien sans.



Ca, ça n’est qu’un exemple parmi d’autres :

Etaient-ils obligés d’avoir le même connecteur 30 broches qu’Apple ? (pardon, il n’est pas exactement le même, il est incompatible). Il existe une chié de connecteurs différents, avec plus ou moins de points de connexion, mais ils ont choisi un connecteur quasiment identique à celui d’Apple.

Autre exemple : au niveau d’un stand d’une expo, il y a marqué en gros “genius bar”.

C’est bien d’avoir des techos derrière un comptoir pour discuter.

Mais avoir exactement le même nom qu’Apple, c’est gonflé, non ? C’est simplement symptomatique de la copie sans se cacher qu’exerce samsung.



Après, oui, ils font de bons produits.

J’espère que ce jugement va au contraire les pousser à se différencier pour avoir vraiment des produits et une “expérience utilisateur” qui n’est pas pompée.

Parce qu’ils ont de bons ingés. (et j’insiste sur ce points. Leurs produits ne sont pas mauvais. Mais n’avoir qu’une seule et unique source d’inspiration, c’est gonflé quand même !)


Le 25/08/2012 à 11h 00

Est-ce qu’on peut me donner 1 seul exemple de smartphone avant l’iPhone ayant un écran tactile capacitif multitouch en verre ?



Pour samsung, je dirais simplement qu’ils n’avaient qu’à engager de meilleurs avocats : même le juge a indiqué que les avocats de Samsung avaient eu une très mauvaise stratégie.

Et c’est sans compter qu’attaquer avec des brevets FRAND, c’est juste idiot. Comme Motorola, ils ont déjà des procédures en europe et aux US pour du parasitisme économique à cause de ces brevets FRAND, c’est vraiment bête de donner de l’eau au moulin de la FTC et de la commission européenne.



Pour les pro Android / Samsung, rappelons la chronologie :

Google annonce Android en 2006, présentations de mockups, c’est très largement inspiré de ce que fait RIM à l’époque : écrans non tactile carrés, protection en plastique, clavier intégré.

Apple annonce début 2007 l’iPhone, et précise dès le début la caractéristique principale : grand écran capacitif multitouch (une première dans un téléphone).

Google arrête les dev android pour repartir sur une nouvelle IHM copiée d’iOS.

La copie se limite volontairement sur certains points :




  • gestes multitouchs

  • bounce.

    L’exemple du bounce est très parlant : il participe au look and feel d’iOS.

    Il y a eu une réflexion sur l’intégration de cette partie d’interface utilisateur.

    Et samsung copie volontairement, et refuse de prendre une licence sur ce type de brevet.





    Enfin, on ne demande pas au jury si le système de brevet est juste ou non.

    On lui demande d’appliquer ce qui est en vigueur aux états-unis.

    C’est pareil dans les autres pays : en France, on ne verra pas pour le moment de procédure sur les brevets logiciels, vu que ça n’existe pas !