votre avatar

Alucard63

est avec nous depuis le 7 mars 2006 ❤️

3592 commentaires

Le 08/04/2013 à 18h 57







HarmattanBlow a écrit :



Non, le CPU n’est jamais utilisé comme un GPU bis, quel que soit le sens que tu veuilles donner à ça. En revanche le GPU est parfois utilisé pour soulager le CPU, mais cela ne permet pas pour autant d’en faire un CPU bis.





Si, sur console, justement c’est le cas: un certains nombre de filtres et d’effets ne sont pas fait via le GPU mais le CPU.



Au fil des années on tente de compenser la vieillesse du GPU par des astuces mais aussi en essayant de décharger un peu la charge sur le CPU( au prix d’autres éléments… ) pour suivre les évolutions graphiques. Après je ne suis pas dev mais c’est ce que j’ai compris.



La PS4 est pensée avant tout pour le jeu. <img data-src=" />



Le 08/04/2013 à 18h 45







yeagermach1 a écrit :



ah bon, y a que les graphismes qui sont importants ? Un GPU meme si on lui fait faire de plus en plus de chose, son job de base c’est quand meme le graphisme. La physique, l’IA, gestion des inputs/outputs et donc du gameplay reste encore du domaine du CPU et c’est ce qu’il y a de plus gourmand.





Pas besoin d’un puissance CPU de fou pour faire un jeu fun. Des jeux funs ont sait en faire depuis des années, même avec des CPU anémiques( et celui de la PS4 a l’air d’être un belle merde <img data-src=" /> ). Par contre des jeux beaux…



Quand à la physique c’est le GPU qui la gère maintenant.



Reste au CPU les instructions de branchement…



C’est la philosophie derrière cette configuration( et c’était pire encore avec le CELL qui était une ( très ) grosse merde concernant les entiers ).<img data-src=" />



Le 08/04/2013 à 18h 29







AxelDG a écrit :



La question c’est pas vraiment si on trouve une config identique… A la limite OSEF.



La vraie question c’est plutôt de savoir s’il est plus intéressant d’investir dans un PC aujourd’hui plutôt que d’attendre la sortie de la PS4.



Compte tenu de tout ce que j’ai dit, je reste persuadé que oui, sans hésitation.



Mon pronostic est que la console va “flirter” avec les performances PC Moyen/Haut de gamme du moment pendant… 6mois-1an GRAND MAX… pour se faire enterrer à nouveau. <img data-src=" />



Mais je serai d’accord pour dire que je suis dans la pure spéculation.<img data-src=" />





Moi j’achèterai une console next gen dans 2 ou 3 ans( le temps qu’elle baisse et que les bons jeux sortent ).



Mais je ne recherche pas la même chose.



Ce que je veux dire c’est que dire que la PS4 a une mauvaise config est une erreur. Pour ce qu’elle est censé faire, avec le cahier des charges qu’elle a, les choix sont très judicieux.<img data-src=" />


Le 08/04/2013 à 18h 25







HarmattanBlow a écrit :



C’est tout le contraire ! ^^

La GDDR n’est pas une mémoire “magique” plus rapide que la DDR. C’est une mémoire pour laquelle on privilégie la bande passante à la latence. C’est très bien pour le GPu, pas pour le CPU.





La PS4 est faite pour le jeu…la partie la plus importante est le GPU, d’ailleurs le CPU est souvent utilisé comme GPU bis. Donc la latence n’est pas la priorité.<img data-src=" />


Le 08/04/2013 à 18h 12







AxelDG a écrit :



La mémoire partagée CPU/GPU, ils ont déjà fait sur PC et ça n’a jamais été une grande réussite…

C’est surement différent sur console mais l’avenir nous le dira.



De plus, c’était prévisible mais les caractéristiques du GPU et CPU sont déjà dépassées par des PC moyen/haut de gamme aujourd’hui (oui oui j’ai bien dit MOYEN…) donc d’ici la sortie de la console et sa démocratisation… voilà quoi… <img data-src=" />



En plus il a toujours été de coutume, sur console, de ne pas exploiter toute la puissance dès le début…

D’ailleurs j’espère bien que les premiers possesseurs de console Next Gen pourront goûter toute la frustration des joueurs PC depuis des années en goûtant aux magnifiques portages prévus pour les deux générations de consoles simultanément. <img data-src=" />



Le PC n’a pas forcément été pensé pour le jeu mais comme le jeu est le média qui le pousse le plus dans ses derniers retranchements, il est logique que finalement toute son architecture s’y prête parfaitement.

Si tu choisis : une carte mère de gamer + de la mémoire de gamer + des périphérique de gamer + carte vidéo de gamer….

t’as inévitablement une machine de guerre pour jouer et pour un sacré bout de temps !<img data-src=" />





Tu as lu ce que j’ai marqué?



La mémoire partagée( dans les portable/PC low cost généralement ) sur PC est généralement de la DDR3 qui a une bande passante pourrie en comparaison de la GDDR5( donc un fillrate pourrie, donc des perfs graphiques pourries ).



Jamais n’est sortie un PC avec de la GDDR partagée.<img data-src=" />



Le seul autre exemple que je connaisse est la xbox 360 avec la GDDR3. Hors tous les devs en étaient très contents. Cette console a été pensée pour les devs et ce point est un élément central pour eux.<img data-src=" />



Pour le reste comme je disais la PS4 est plus homogène que n’importe quel PC actuel pour une utilisation jeu.



Après qu’il existe des GPU plus puissants c’est une évidence, qu’il existe des CPU plus puissants encore plus.



Mais qu’il existe une configuration comparable à la PS4 sur PC à l’heure actuelle: non.



Pour le moment on compare des choux et des carottes. Aucun intérêt.<img data-src=" />


Le 08/04/2013 à 16h 38







AxelDG a écrit :



Les consoles n’ont jamais utilisé toutes leurs ressources dès le départ… <img data-src=" />



Et puis cette disproportion de VRAM pour un GPU beaucoup plus standard, moi je vois plutôt ça comme un cache-misère que comme un veritable atout.

Dans 8 ans, on pourra plus difficilement dire : “Ptain les textures sont vraiment dégueux sur PS4…”



Ils ont bien compris que c’était un moyen simple et peu couteux d’augmenter la durée de vie de la console. <img data-src=" />



Mais bon d’ici 2 ou 3 ans les perfs de la PS4 seront enterrées par celles du PC tout comme ça a toujours été le cas à chaque génération de console depuis la PSX…







  1. la mémoire est partagée GPU/CPU

  2. la bande passante de la GDDR5 est bien supérieure à n’importe quelle DDR3( 160 Gb/sc vs 17Gb/sc ) donc sur l’accès mémoire CPU la PS4 a un avantage important qui n’est pas prêt de disparaître



    Ce n’est pas juste un volume important de mémoire disponible pour la CG c’est une mémoire rapide est flexible pour les deux puces.



    Bon elle finira par être dépassée bien sur. Mais clairement la PS4 ne peut pas être comparée à un PC milieu de gamme actuel.<img data-src=" />



    Elle a été entièrement pensée pour le jeu à la différence d’un PC.



    Son avantage est son homogénéitée AMHA.<img data-src=" />


Le 08/04/2013 à 16h 30







AngelSword a écrit :



Oui, et d’ailleurs je trouve ça surprenant que le “proco” puisse en profiter, c’est la première fois que de la ddr5 est utilisée en Ram système non ?





C’est pas de la DDR5 mais de la GDDR5.<img data-src=" />



La DDR5 ça n’existe pas pour le moment.



Sinon la xbox 360 avait 512 Mo de GDDR3 unifié( partagée GPU+CPU ).


Le 08/04/2013 à 15h 59







unCaillou a écrit :



L’exemple est foireux, c’est pas aberrant de dire “non” si on me demande “est-ce que…”



JB, vous risquez quoi à fournir les libs et les clés dans vlc ?

En le faisant, vous posez les pieds dans le plat directement, et on ne pourra rien vous dire sauf à citer la loi, et là vous pourrez débattre pleinement.





Si ils continuent MFM envoie le RAID attaquer à Centrale Paris.<img data-src=" />



Ca risque de pas être discret quand même.<img data-src=" />


Le 08/04/2013 à 15h 43







RaYz a écrit :



Heureusement qu’il faut pas attendre 1 an pour avoir la réponse <img data-src=" />





Il faut dire que chez Hadopi le serveur est une antiquité.<img data-src=" />


Le 08/04/2013 à 15h 37

Le dialogue avec le Hadopi ça semble aussi fun qu’avec Siri.<img data-src=" />

Le 08/04/2013 à 11h 58







Eagle1 a écrit :





non mais sérieusementallo quoi…





<img data-src=" />


Le 05/04/2013 à 09h 17







ActionFighter a écrit :



Je pense qu’on a tous bien lu, mais les rumeurs sont quand même bien persistantes.





Je dirai même que les rumeurs sont permanentes.<img data-src=" />



Ok je sors…<img data-src=" />


Le 05/04/2013 à 08h 59







Jed08 a écrit :



Parce que ça aurait empêcher les gens de cracher sur MS ?

Ils ont lu Xbox et always connected et c’était fini hein !

Le gars bosse chez MS donc forcément ce qu’il dit est la parole de MS ! <img data-src=" />





Faut arrêter de croire que les gens crachent sur MS pour le plaisir.<img data-src=" />



Je possède un Xbox 360 et j’en suis très content( si c’était à refaire je la reprendrais ).



Mais une connexion permanente c’est rédhibitoire pour moi.<img data-src=" />


Le 05/04/2013 à 08h 54

Je sentais que j’allais repasser chez Sony pour la prochaine génération. Ca se confirme de plus en plus.<img data-src=" />

Le 04/04/2013 à 10h 21







Citan666 a écrit :



Pourrais-tu détailler un peu stp ? Quelles sont les limitations techniques ? Je demande parce que j’ai du utiliser ma 3G Free pour cause de slamming sur la ligne fixe pendant 15 jours, et j’ai été agréablement surpris par les débits (150Ko/s en moyenne, bien suffisant au quotidien), et pas senti de latence violente dans les jeux. Il est vrai que je n’ai pas joué à des trucs nerveux genre FPS, plutôt des tower defense et autres, ce qui explique peut-être que je n’ai rien remarqué.







La 4G ne t’offrira pas un meilleur ping. Pour les FPS 70 à 100 de ping c’est pas terrible quand même.



Pour les débits comme expliqué il faut pas être trop nombreux sur l’antenne, mais ça peut le faire selon les cas.



Entre la 4G à la défense à mdid et la 4G au fin fond du trou du cul de la France assez proche de l’antenne la différence de débit va juste être énorme.<img data-src=" />



J’ai pas dit que ça n’était pas possible juste qu’il ne faut pas s’attendre aux résultats de l’ADSL en ville AMHA.<img data-src=" />


Le 03/04/2013 à 20h 29







Btbw a écrit :



le vieux argument qui revient toujours … avec la 4G tu ne consommes pas PLUS tu consommes mieux, la réactivité que ça donne au surf sur mobile par exemple ….





En ville quand tout le monde aura un téléphone 4G je demande à voir.



Ne jamais oublié que les débits annoncés sont théoriques en étant seul sur l’antenne. Ce qui n’arrive jamais en pratique.



Au final la 4G AMHA ça va surtout permettre aux opérateurs d’absorber l’augmentation du trafic data au niveau de la boucle locale radio et au passage tenter de vendre des forfaits 10 euros plus chers.



Pour l’utilisateur, je suis prêt à mettre ma main à couper que ça va pas changer fondamentalement les choses.



Quand à ceux qui pensent que ça va remplacer l’ADSL…à la campagne peut être( si on peut se contenter d’un ping tout pourris )…mais à la ville vous rêvez éveillés les gars.<img data-src=" />


Le 03/04/2013 à 16h 34







Apone a écrit :



l’intérêt de l’Exynos est surtout à priori l’économie de la batterie et l’augmentation de l’autonomie.

Ce qui va être pénible à mettre en valeur.



Pour finir, sur PC tout du moins on a déjà vu des carte graphiques ayant un score moindre au dernier 3DMark du moment et pourtant capables de cracher au final plus de FPS sur certains jeux.





AMHA: il fera mieux que le Qualcomm sur des applications peu gourmandes et fera bien pire sur des très gourmandes.



Un Quad A7 ça consomme moins qu’un Dual A9, par contre un coeur A15 ça consomme plus qu’un Atom( mais c’est plus puissant )….<img data-src=" />


Le 03/04/2013 à 15h 34

Qualcomm bouffe tout cette année.<img data-src=" />



Bon moi par contre j’attends toujours la sortie des Quad A7 pour le milieu de gamme, parce que pour le moment les chinois de Mediatek sont devant( mais ils n’ont pas de grandes marques comme clients…à part Sony d’après les rumeurs…à voir… ).

Le 03/04/2013 à 12h 04







brazomyna a écrit :









Et grâce au Gorilla Glass on pourra même s’en servir de planche à pain.<img data-src=" />


Le 03/04/2013 à 11h 45







ff9098 a écrit :



Mais pas la droite ? <img data-src=" />





Certains portent à gauche d’autres à droite, on choisit pas c’est la nature ça.<img data-src=" />







Reznor26 a écrit :



Bof… le sondage se transforme fatalement en “quelle est la diagonale d’écran de votre smartphone actuel ?” À quelques exceptions près, ce sera ça.



Et puis quelqu’un qui n’a jamais eu un grand smartphone ne peut pas donner une réponse objective (testé 5 minutes celui d’un pote ça suffit pas pour se rendre compte au quotidien).



De même que ceux qui ne jurent que par les grands smartphones ne se souviennent pas forcément des avantages d’un écran plus petit.



Et puis, pour quelle utilisation ?

Certains ont une utilisation très orientée multimédia, d’autres professionnelle, d’autres s’en servent pour lire, d’autres veulent juste “un téléphone”…



ça induit des choix qui n’ont rien à voir avec une taille idéale, simplement avec une utilisation, des goûts persos, l’illusion largement répandue de penser que ce qu’on possède actuellement est forcément le bon choix, etc.



Bref, ça ne veut rien dire. <img data-src=" />





C’est aps la taille qui compte c’est la façon de s’en servir.<img data-src=" />


Le 03/04/2013 à 11h 31







KooKiz a écrit :



That’s what she said <img data-src=" />





<img data-src=" />


Le 03/04/2013 à 11h 26







Glasofruix a écrit :



4” à 5”, mais vous fumez les gens c’est vraiment trop gros, 4” max je dis.







Hum 4” c’est petit pour un smartphone. Ceci dit les miens font 4”( Omnia 7 et SGS 3 mini ) et ça me va, mais 4” c’est petit en comparaison de ce qui se fait à l’heure actuelle.<img data-src=" />


Le 03/04/2013 à 11h 21







WereWindle a écrit :



Si je me souviens bien de la pub, l’iPhone avait une taille idéale pour la taille de la main (attendu que mon collègue qui fait 1.70m et moi-même du haut de mon mètre 93 avons des mains faisant la même taille… ben voyons).

Puis ils ont rajouté quelques millimètres sur le 5 pour tenir compte de l’accroissement de la taille de la population <img data-src=" /> (et <img data-src=" /> pour préciser)





Franchement l’iphone 3.5” quand on a goutté à plus c’est dur de revenir à cette diagonale.



Pour moi le minimum c’est 3.7” et le max 4.74.8”( et je trouve ça grand franchement ).<img data-src=" />


Le 03/04/2013 à 11h 07

27” <img data-src=" />

Le 03/04/2013 à 08h 01







ldesnogu a écrit :



Je pensais plutôt à SPARC, Alpha ou MIPS qui en leur temps étaient à des années-lumière du x86, en perf… et en prix aussi <img data-src=" />



Quoique à l’époque j’ai bénéficié d’un excellent tarif pour une SPARCstation IPC qui laissait sur place les PC. C’était le bon temps ma bonne dame, on avait le choix !





Bon disons aussi qu’un M5000 ça prend un peu de place dans la chambre.<img data-src=" />



<img data-src=" />


Le 02/04/2013 à 21h 48







ldesnogu a écrit :



Je rappelle juste un truc : ce n’est pas toujours le meilleur techniquement qui gagne, sinon Intel n’aurait jamais atteint son niveau actuel.







Dans ce cas je ne comprends pas pourquoi AMD n’était pas devant pendant les années Athlon/Athlon XP/Atthlon 64…<img data-src=" />



Ce n’est pas toujours le meilleur techniquement qui gagne.<img data-src=" />


Le 02/04/2013 à 21h 47







ldesnogu a écrit :



Je rappelle juste un truc : ce n’est pas toujours le meilleur techniquement qui gagne, sinon Intel n’aurait jamais atteint son niveau actuel.







Dans ce cas je ne comprend pas pourquoi AMD n’était pas devant pendant les années Athlon/Athlon XP/Atthlon 64…<img data-src=" />



Ce n’est pas toujours le meilleur techniquement qui gagne.<img data-src=" />


Le 02/04/2013 à 21h 54







romjpn a écrit :



Les photos de smartphones haut de gamme valent les photos d’un APN compact peut-être mais le calcul est vite fait : bon smartphone entrée de gamme 250euros max + APN compact entrée de gamme aussi 200 euros max (je prends les estimations hautes) ben on arrive pas au prix des smartphone haut de gamme. En plus franchement j’ai un iphone4 du boulot et ces photos sont correctes mais rien à voir avec un APN Sony de 2008 acheté 100 euros qui en fait de beaucoup plus belles. Les arguments d’achat d’un smartphone haut de gamme sont plutôt minces je trouve.





Avoir le kiki tout dur?



Ok je sors.<img data-src=" />


Le 02/04/2013 à 15h 14







Mokona a écrit :



je dis pas qu’il n’y a pas de difference, je trouve juste que les difference minimes se chiffrant à 500 euros (car oui la photo, la recharge sans fil, , etc …c’est carrement accessoire et marketing kikalaplugrosse) ….. on est vraiment dans du gros foutage de gueule de la part du top 5 des contrusteurs





La photo moins que le reste de mon point de vue.



Le confort et la fluidité d’un SGS3 sont aussi des atouts.



Mais je suis d’accord, c’est cher parce que l’année prochaine n’importe quel smartphone milieu de gamme avec un Quad A7 fera pratiquement aussi bien au niveau perfs( photo par contre je suis pas certain du tout )…<img data-src=" />


Le 02/04/2013 à 15h 06







Mokona a écrit :



<img data-src=" /> exemple ?





Par exemple, prends une photo avec un SGS 3 puis avec un Wiko et regarde la différence, tu devrais comprendre.



A presque 600 boules le téléphone heureusement qu’il est un peu mieux quand même.<img data-src=" />



Maintenant pour madame michu et bien d’autres le wiko suffit largement.<img data-src=" />


Le 02/04/2013 à 13h 55

Mieux que le top 50 ce classement.<img data-src=" />

Le 31/03/2013 à 20h 39







methos1435 a écrit :



Vue la merde dans laquelle ils sont. C’est pas comme si la Corée du Nord était une grande puissante bien riche …

De plus ils ont déja bombardé des iles. Il est taré, il peux très bien décider d’attaquer sur un coup de tête.



Je suis sure que cet allumé du ciboulot serait près à mourir pour rentrer dans l’histoire.





Le peuple crève la dalle mais les dirigeants sautes de putes et se font des banquets.



Pourquoi attaquer ses voisins et perdre son statut et même la vie.<img data-src=" />



Dans une nation ce n’est pas le peuple qui prend la majorité des décisions et dans un dictature encore moins.<img data-src=" />


Le 31/03/2013 à 16h 58







methos1435 a écrit :



Autrement, le nucléaire ils savent faire. Pour l’instant, et comme toujours, les menaces c’est du bluff, mais ils ont pas grand chose à perdre….





Échanger un statut de dictateur tout puissant( et tout ce que ça sous entend ) contre un cercueil…



Non les mecs n’ont vraiment rien à perdre.<img data-src=" />


Le 29/03/2013 à 16h 36







metaphore54 a écrit :



Les spécifications ne peuvent pas changer au dernier moment en fonction de ce que l’autre va sortir ?





Demande à Sega la réussite que fût la Saturn et tu comprendras que ce n’est pas une bonne idée.<img data-src=" />


Le 29/03/2013 à 09h 51

Une news sur le hardware console: ça sent bon le troll du dredi tout ça.<img data-src=" />

Le 29/03/2013 à 10h 43







CrazyCaro a écrit :



Pareil.



Ceci dit, ça manque de mecs à moitié nus aussi… <img data-src=" />





Il y en a parfois…mais celui par exemple ne fait pas très viril.


Le 29/03/2013 à 10h 32







le duc rouge a écrit :



Et Bayonetta, ça a été un succès ou un échec ?



EDIT : xxSeize a répondu plus haut





Un des meilleurs jeux de cette génération.<img data-src=" />


Le 28/03/2013 à 22h 45







ludo0851 a écrit :



Elle n’a pas d’alliance car le mariage entre personnes du même sexe n’est pas (encore) autorisé au Canada. (voila de quoi calmer les ardeurs…ou pas)





Rabat-joie.<img data-src=" />



<img data-src=" />


Le 28/03/2013 à 13h 35







koroke a écrit :



Enfin, tu as idée d’être juger sur ton physique quand tu t’habille de sorte a ne montrer que ça aussi. Faut pas prendre un mal pour un bien… quand je vois des femmes habillé en <img data-src=" />, bon, certes c’est une société de liberté, on a le droit de faire ce qu’on veut. Mais si demain je mets un tee-shirt avec une croix gammé, je vais me faire découper parce que je suis N*





En meme temps je sais pas toi mais moi je préfère les putes que les Nazis.<img data-src=" /><img data-src=" /><img data-src=" />


Le 28/03/2013 à 13h 30







ElRom16 a écrit :



Moi je vois que sa bouche ouverte à besoin de quelque chose pour la remplir <img data-src=" /> … Quoi un pervers où ça ?? <img data-src=" /> <img data-src=" />





Oh putain!<img data-src=" /><img data-src=" /><img data-src=" />


Le 28/03/2013 à 11h 33







Baku a écrit :



GG les mecs <img data-src=" />

Sérieux, on est sur PC Inpact, pas sur Bonjour Madame. Commentez sur le contenu de l’actualité au lieu de vous agiter la nouille…





Je vois qu’il y a des connaisseurs.<img data-src=" />


Le 28/03/2013 à 15h 56

Pour augmenter les bénéfices de PCi je propose la création d’un compte “Premium Troll” qui donnera le droit à son utilisateur de troller en étant immunisé contre la sword de Vincent.



Quoi vous êtes pas d’accord?<img data-src=" />

Le 28/03/2013 à 15h 35







razcrambl3r a écrit :



Tu rèves la <img data-src=" />



Sinon, très impressionnant (sauf la bouche qui fait bizarre) mais bon, ils font la même chose à chaque génération, et on est loin de ce résultat au final (j’me rappel avant la sortie de la PS2 ils avaient fait ce genre de démo avec un boxeur, bah on était bien loin du compte au final)





La boxeur c’était la PS3 je crois( fight night ), la PS2 c’était un vieil homme.<img data-src=" />


Le 27/03/2013 à 14h 52







yvan a écrit :



C’est triste mais tout le monde n’a pas des potes intéressants qui savent choisir leur plate forme de jeux…



C’est déjà mieux que ceux qui ont une PS3 et ont rarement des potes

<img data-src=" />





Non je pense vraiment potes.



J’ai une 360 et mis à part Street Fighter 4 AA on joue pas à grand chose avec.



Pourtant mes potes sont des pures geeks: du genre à jouer des heures à Mass Effect, Bioshock et même à Dwarf Fortress( le jeu le plus beau du monde<img data-src=" /> )…



Franchement on se marre plus sur un Mario Kart ou un Smash Bros que sur n’importe quel jeu Xbox ou PS3 en multi, que l’on soit casual ou pas.



Le casual c’est du bonus parce que même les filles ne rechignent pas à jouer( quand il y en a<img data-src=" /> ).


Le 27/03/2013 à 10h 27







ascrounch a écrit :



normal, y’a qu’a voir les jeux purris qu’ils proposent… j’ai jouer 1 semaine a leur nintendo land, mais c ‘est tellement lamentable que j’ai fini par m’en lasser… et les autres jeux … sans commentaires..



le calcul est simple pour une nouvelle console : lineup pourri =&gt; pas de vente



je crois que c’est la derniere console nintendo que j’achete <img data-src=" />





Moi j’attends Bayonetta 2, Mario Kart, Zelda et Smash Bros + une baisse de prix…



Si tout ça arrive je la prends parce que Nintendo c’est quand même le top pour le jeu entre potes.<img data-src=" />


Le 27/03/2013 à 10h 24

<img data-src=" /> Ils avaient qu’à pas utiliser Android comme OS et puis c’est tout. <img data-src=" />

Le 27/03/2013 à 13h 04







John Shaft a écrit :



<img data-src=" />







Moi je dirais que c’est plus le capitalisme actionnarial, mais bon : je suis un chien de gauchiste <img data-src=" /><img data-src=" />





J’ai pas dit que c’était un bienfait social… ni même toujours un bienfait pour l’entreprise en elle même d’ailleurs: ça crée des guerres de clochers qui empêchent souvent l’adaptation de l’entreprise en cas de changement brusque du marché….<img data-src=" />


Le 27/03/2013 à 11h 32







TBirdTheYuri a écrit :



C’est même très répandu comme technique. Pour une boîte comme celle ou je bosse on peut créer une entité pour le bureau d’études, une autre pour le câblage électrique, une troisième pour le montage mécanique, et une holding pour chapeauter tout ça, qui facture des prestations de gestion aux trois autres, mangeant la totalité des bénéfices.

Du coup seule la holding réalise des bénefs conséquents.







C’est le management moderne qui permet de mettre toutes les entités sous pression constante.<img data-src=" />


Le 27/03/2013 à 09h 53







jeje07 a écrit :



une entreprise ne peut pas distribuer la totalité des ses bénéfices…





Bah il y a bien France Télécom qui le fait( ou presque )…mais le résultat est pas très brillant.<img data-src=" />