votre avatar Abonné

ragoutoutou

est avec nous depuis le 25 juillet 2007 ❤️

3766 commentaires

Le 30/10/2012 à 13h 06







eax13 a écrit :



Mais p*, si la presse en sort gagnante, n’importe qui viendra chialer en espérant obtenir une part du gâteau !







Si tous les sites européens se retrouvent en droit de réclamer des sous aux moteurs de recherche, il y a fort à parier que ceux-ci abandonneront le vieux continent. On verra bien l’impact sur l’économie…


Le 30/10/2012 à 13h 01







carbier a écrit :



“voir ce qu’il se passe” ?

Simple, attaque devant la cour de justice européenne de la part des éditeurs Français, Allemands, Italiens, etc. pour abus de position dominante <img data-src=" />





Il leur faudra alors prouver que c’est un abus de cette position dominante et non une réaction normale face à une obligation légale.


Le 30/10/2012 à 12h 42







TBirdTheYuri a écrit :



La presse française concernée dans cette affaire, c’est combien d’entrées à blacklister dans leur moteur de recherche? 40? 60?… allez 100 en étant large.



Les liens torrent c’est combien d’entrées à faire sauter? 50 millions? 500 millions? avec plusieurs millions de nouveaux liens chaque jour probablement…



La différence de simplicité de mise en œuvre est tout de même assez flagrante… non?





Le jour où les sites de p2p réclament des sous à google de la même manière que la presse le fait, tu vas voir le déréférencement de masse <img data-src=" />


Le 30/10/2012 à 12h 40







-DTL- a écrit :



Si l’indexation du net par Google était une mission d’intérêt général… l’état serait dans L’OBLIGATION de subventionne Google comme c’est le cas pour la presse.







Peut-être pas le subventionner, mais au moins pas le sanctionner pour l’exercice de cette prétendue mission d’intrérêt général.



Les représentants de la presse sont en tout cas gonflés:




  • d’un côté ils veulent faire payer google s’il référence leurs sites

  • de l’autre ils prétendent que google a une obligation de référencer leur sites sous des prétextes fumeux.



    Beurre, argent du beurre et petite sœur de la fermière en string.


Le 30/10/2012 à 12h 17







misterB a écrit :



Perso ce genre de choses font peur, la presse emmerde google pouf on la dégage, , après ce sera quoi ? un concurrent emmerde Google pouf il dégage, une mauvaise histoire sur google, pas grave on la vire………







La situation était plutôt: la presse belge obtient en 2007 un jugement obligeant google à déréférencer les sites affiliés à Copypresse avec une astreinte de 25000 € par jour de retard . Google essaye tous les recours légaux mais ceux ci s’épuisent et en mai 2011 perd la dernière manche… ardoise salée, pas moyen de règler cela à l’amiable, du coup google déréférence tout (le jugement ne faisant pas une distinction suffisante entre google news et google search)



=&gt; la presse belge a poussé Google dans ses derniers retranchements, et celui-ci a choisi la façon la moins chère de respecter le jugement.


Le 26/10/2012 à 21h 55

Amazon: la pire utilisation des DRM sur le marché… effacer le kindle des clients et clôturer leurs comptes sans daigner leur dire pourquoi, c’est aussi une forme de service après vente…



http://www.bekkelund.net.nyud.net/2012/10/22/outlawed-by-amazon-drm/

Le 25/10/2012 à 11h 30







rjloup a écrit :



Le système étant dynamique (sur les SAN) il déplace les fichiersblocs en fonction de leur utilisation







<img data-src=" />



Sinon en effet, ça ressemble surtout à un système de stockage avec multi-tiering automatique genre EMC Vmax… ou intel smart response… mais en soft (comme le récent lvm2ts sous linux)



Le 19/10/2012 à 15h 42







Faith a écrit :



Je plaide pour le droit de demander de l’argent en échange d’un service qu’on fournit. Si Google demandait de l’argent pour accepter d’indexer un site, je le soutiendrai également.





Tu plaides juste pour le droit d’exiger de l’argent pour tout et n’importe quoi en mettant l’étiquette “service” sur tout et n’importe quoi en partant du principe que quelle que soit la demande elle est forcément légitime…



… sur ce, tu me dois des sous, tu m’as lu, ma demande est légitime, je t’ai distrait pendant quelques minutes où tu n’aurais de toutes façons rien fait de ta vie. Ça fera 35 euros.<img data-src=" />


Le 19/10/2012 à 15h 37







Ricard a écrit :



Mais tu ne fournis AUCUN service. T’as du mal à comprendre ça…..<img data-src=" />







Si tu le croises en rue et que tu le vois, il prétendra aussi t’avoir fournis un service <img data-src=" />


Le 19/10/2012 à 14h 36







Faith a écrit :



C’est que tu n’as compris ni mon commentaire, ni le “modèle d’internet”.

On est justement en train de retourner paisiblement vers le minitel. Le modèle Internet disparaît chaque jour un peu plus.







ce n’est pas en clamant la légitimité de mettre des péages partout que tu vas préserver l’ancien modèle… tu plaides plutôt pour le modèle proné par Rupert Murdoch …


Le 19/10/2012 à 14h 35







Faith a écrit :



robots.txt n’empêche pas les moteurs de m’indexer.

robots.txt est une indication pour les robots qui le veulent bien de ne pas venir sur mon site. robots.txt n’empêche pas une indexation manuelle, ne permet pas de filtrer en fonction du type d’utilisation des données collectées, etc.





Il est clair que c’est un fichier purement déclaratif dont les résultats ne dépendent que du respect qui lui est porté par le processus qui le lit … et alors?

Les moteurs de recherche les plus connus respectent le contenu de ce fichier, et si tu crains un mauvais usage du contenu de ton site par un acteur du web qui respecte ce fichier, il suffit de lui notifier ton souhait de ne plus indexer ton site.







Faith a écrit :



Bref, ton robots.txt est un outils sommaire qui ne garantit absolument rien. Il n’est, en aucun cas, une garantie que ma volonté soit respectée.







Alors ce n’est pas “son” robots.txt … on parle d’un truc qui date des “webcrawlers”… et qui remonte à 1994… c’est le standard de-facto du web pour signifier l’accord ou non d’indexer un site. Bien entendu il n’y a pas de garanties, mais bon, même avec des drm sur les sites tu n’auras pas de garanties.







Faith a écrit :



C’est une solution de techos vivant dans un monde de bisounours.





ce qui ne peut forcément pas convenir à des pathos vivant dans le monde des petits poneys…


Le 19/10/2012 à 14h 22







Faith a écrit :



Le modèle original du Web n’a jamais été ce lui de Google, des régies de pubs et Facebook, le “modèle original” est décentralisé et où chaque site est autonome. Rien à voir avec la merde d’aujourd’hui.







Le modèle original du web n’est effectivement pas celui de Google, mais force est de constater que ce dernier a construit le sien grâce au modèle original… et puis quitte à parler du modèle original, dans les premières années, les fournisseurs comme AOL ou Compuserve faisaient des choses également très discutables.



Enfin, contester le modèle d’internet sur base de “Google a des sous et facebook ça pue”, ce n’est pas pousser très loin la réflexion.


Le 19/10/2012 à 13h 03







Faith a écrit :



Il n’y a pas que Google dans la vie. Les moteurs étaient déjà en position de force avant l’apparition de Google.

Arrêtez de vous focaliser sur un seul acteur du Web !







Les moteurs de recherche sont apparus à une époque où on ne parlait pas de “position de force”, ils sont apparus en réponse à un besoin et en utilisant la politique d’ouverture qui était à l’époque la norme sur le web.



C’est plutôt ceux qui à l’heure actuelle gueulent sur les moteurs de recherche qui ont débarqué par la suite et joué des muscles pour déstabiliser le modèle original du web…


Le 19/10/2012 à 12h 44







Faith a écrit :



Tu confonds “bonne pratique de l’internet” et “pratique imposée par des acteurs en position de force”.





Non, c’est une bonne pratique de l’internet. C’était déjà en vigueur avant que Google n’émerge.


Le 19/10/2012 à 12h 17







Faith a écrit :



Si Google refuse de payer, il désindexe j’adapte mon fichier robots.txt en conséquence parceque c’est la bonne pratique sur l’Internet. Point. Aucun problème.





<img data-src=" />



Le 19/10/2012 à 11h 51



Jeudi soir, les associations des éditeurs se sont déclarées «stupéfaites» de cette réaction de Google, «qui n’hésite pas à s’ériger en censeur au mépris de sa mission d’intérêt général de référencement».

Src Figaro



… faudrait savoir, si c’est une mission d’intérêt général, ne faudrait-il pas plutôt subventionner Google plutôt que de le ponctionner en parlant de préjudice?

C’est vraiment étonnant de voir qu’un coup on parle de Google comme un méchant prédateur capitaliste qui bois le sang des journalistes pour justifier le fait de lui prendre des sous et, le coup suivant, de prétendre que Google est quasi un service public et qu’il a une mission qu’il doit remplir obligatoirement…



… décidément, en Belgique comme en France, les lobbys de la presse sont de belles brochettes d’hypocrites.

Le 18/10/2012 à 14h 56

La règle d’exclusion mise dans le moteur de recherche aura en commentaire dans le code “exception française” … <img data-src=" />

Le 17/10/2012 à 17h 11







j-c_32 a écrit :



Le concept d’avoir des experts non neutres qui informent les politiciens n’est pas mauvais en soi, mais à condition que tout le monde soit à égalité niveau pouvoir de lobbying.







L’égalité, ça n’existe pas, il faut le créer artificiellement. Dans le cas d’un débat contradictoire codifié, on peut éventuellement contrôler le temps de parole, les budgets de campagne, … mais quand il s’agit de codifier les interactions de tout le monde avec le politique…



Au mieux, on peut placer des contrôles sur les politiciens, pour limiter la corruption, et codifier le lobbying comme cela se fait au parlement européen, mais au final, ça ne fait que mettre la barre plus haut pour les lobbys, barre qui sera plus facilement franchie par les mieux financés.


Le 17/10/2012 à 15h 46







WereWindle a écrit :



c’est d’être assimilé audit troufion qui l’énerve <img data-src=" />

On mange pas les même rillettes…







<img data-src=" />


Le 17/10/2012 à 15h 43







uzak a écrit :



Mais alors, pourquoi je m’emmerde à voter, si les gus que j’élis écoutent un gars que je n’ai pas choisi ?







Ben tu choisis les mecs qui vont se faire démarcher par les différents lobbys… et selon la personne que tu choisis, les suites données aux différents démarchages seront différentes.



Écouter les lobbys, c’est important dans une démocratie, parceque les politiciens ont besoin d’être informés et le lobbying représente une source d’information non négligeable. Les lobbys, c’est les entreprises, mais aussi les associations et le peuple.



Le lobbyisme, ça va grosso-modo de l’association de quartier qui demande des aménagements dans un virage dangereux aux marchands d’OGM en passant par l’April, Greenpeace, Reporters Sans Frontières, et l’association pour la réintégration de l’amiante dans l’alimentation infantile.



Le 17/10/2012 à 15h 11







hellmut a écrit :



donc il a raison, il n’est pas lobbyiste professionnel, il ne passe pas la totalité de son temps à faire du lobbying.







Euh… il fait du lobbying à titre professionnel, tout comme de nombreux chefs d’entreprise. A son niveau, il ne fait simplement pas le boulot du petit lobbyiste troufion qui démarche les parlementaires et sénateurs, et qui infiltre les groupes de travail et autre think tanks: son terrain de chasse se situe plutôt tout en haut de l’état: les ministres et le président.


Le 14/10/2012 à 12h 02







olivier4 a écrit :



taxe:

google paie pour indexer les sites:: neutralité indépendance. soucis de la qualité., presse générale, informations







oui oui, top crédibilité comme disait l’autre <img data-src=" />

La taxe va régler tous les maux, rendre le web plus neutre et améliorer le contenu des sites, tout comme les J.O. de Pékin ont amenés la démocratie dans l’empire du milieu…



Sérieusement, à part rapporter un peu plus de fric à la presse, je ne vois pas ce que ça va améliorer…



Par contre, cela va créer un précédent et une distorsion qui mèneront à des nouvelles revendications de la part d’autres acteurs du web (pourquoi Google ne rémunérerait-il pas aussi les blogs, les sites associatifs, marmiton, doctissimo et autres…).



Enfin bon, il y a fort à parier que, dès apparition de la taxe, Google coupera le référencement des sites de presse, jusqu’à ce que la taxe soit abrogée, ou qu’à défaut, il y ait eu quelques faillites et une loi obligeant Google à référencer tous les sites de presse.


Le 09/10/2012 à 11h 41







Hysterias a écrit :



Google et la presse sont devenu inter dépendant, ils doivent régler cela entre eux, Google n’a pas le droit de se servir de leur notoriété et contenu pour être un bon moteur







Qu’entends-tu par là? Tu veux dire que Google n’a pas le droit de générer des revenus sur base de la présentation des résultats d’indexage? Quelle est l’alternative pour garder un modèle financier raisonnable? Faire payer les sites pour qu’ils aient le droit d’être indexés?


Le 09/10/2012 à 09h 06







Nithril a écrit :



La mutation pour ces journaux est difficile et pas aussi simple de dire comme certain le font “qu’il y a qu’a faut qu’on” trouver un modèle économique.







“il n’y a qu’à prendre les sous de google, faut qu’on fasse une loi”


Le 12/10/2012 à 07h 54







romjpn a écrit :



c’est assez enorme ! Si les chiffres sont vrais, la RAM est beaucoup plus rapide qu’un SSD.







Bien entendu qu’ils sont vrais… la mémoire flash n’a rien à voir avec la sdram, le niveau de perfs est incomparable, mais l’usage n’est pas le même







romjpn a écrit :



Ca pourrait etre une idee de “customisation” de pouvoir installer un OS sur une grosse barrette qui ne se viderait pas (avec une batterie apparemment ?).





ça existe depuis déjà depuis un bout de temps… du module pour baie 5.25” en pata à la carte pci express.





Pour le reste, c’est étonnant que windows n’offre plus la fonctionnalité… il y a 20 ans, sous DOS, on avait déjà la fonctionnalité



vers 1996, les émulateurs arcade sous dos utilisaient généralement des “DOS extenders”, genre DOS4GW, pour utliser la ram au dessus du premier Mo, mais avaient tendance à faire du swap dès qu’on dépassait 64Mo de ram utilisée, même quand on disposait de plus de ram physique. Du coup une solution, quand on avait vraiment beaucoup de ram, était de mettre le swap sur un ramdisk pour récupérer un peu de perfs…


Le 28/09/2012 à 11h 53



Seulement, la chaise vide de l’Aproged aurait dû entraîner une réaction immédiate du président de la Commission copie privée. Selon l’article 4 du décret du 21 juin 2009, en effet « est déclaré démissionnaire d’office par le président tout membre qui n’a pas participé sans motif valable à trois séances consécutives de la commission. »





l’Aproged a dit “je viens plus, les dés sont pipés et cette commission est pourrie”, ce qui a été reconnu en cœur par les ayants-droits comme une excuse valable, trop contents de faire les votes avec une majorité absolue.

Le 28/09/2012 à 11h 47

Grâce aux “artistes”, le cloud va faire un peu comme le nuage de Tchernobyl: il va s’arrêter à la frontière. <img data-src=" />

Le 28/09/2012 à 07h 18







Superambre a écrit :



on ne peux pas on est en joint-venture avec eux, mon boss a voulu s’en défaire IBM s’est pointé avec 23 avocates et l’on défoncée .. ne JAMAIS signer un contrat avec IBM, JA-MAIS







Bon, faut voir aussi ce que ton boss a signé comme contrat et le temps cpu qu’il a consacré pour comprendre à quoi ça l’engageait.



En général les chefs d’entreprise se basent encore sur l’adage “personne n’a jamais été viré pour avoir acheté IBM” et signent les yeux fermés, sans comprendre que les années 80 sont loin derrière et qu’à défaut d’être virés, ils peuvent perdre leur virginité anale.





Le 27/09/2012 à 18h 52







Superambre a écrit :



Dans I.B.M ya .B pour BUSINESS, mais ya aussi le .I comme dans SIDA





Manque le V pour vaseline… ça ferait déjà moins mal…


Le 27/09/2012 à 16h 38



Le groupement se veut toutefois mesuré et précise dans son communiqué qu’il « restera vigilant à ce qu’aucune mesure n’entame le principe fondamental de la neutralité du net ».





traduction: on veillera à condamner Google s’il nous déréférence en représailles?

Le 25/09/2012 à 15h 48







al_bebert a écrit :



les médias ne connaissent que IOS…





Oui, mais Apple peut leur écrire l’article…


Le 24/09/2012 à 17h 42







brazomyna a écrit :



Dit autrement, faire un copier/coller de code pour le mixer au sien, c’est pas la même chose que linker à son projet une librairie GPL non modifiée, en statique, pas plus que linker une librairie en dynamique, etc…







Ben si, du point de vue de la GPL c’est à peu près pareil… tu peux éventuellement publier ton code sous une licence compatible gpl (n’imagine pas qu’il y en ait une seule qui soit non-libre ou qui ne débouche pas sur la possibilité pour un tiers de faire un fork de ton projet sous gpl)



http://www.gnu.org/licenses/gpl-faq.html#LinkingWithGPL


Le 24/09/2012 à 12h 04







brazomyna a écrit :



Justement, là on ne parle plus d’une simple redistribution du fork (donc des sources originales modifiées), mais d’une redistribution des sources modifiées et de l’ensemble des nouvelles sources ajoutées qui vont toucher de près ou de loin au code original.







Tout code qui touche le code original (sous gpl) ou ses dérivés (qui sont eux-mêmes soumis à la gpl en cas de redistribution) est soumis également aux règles de la gpl en cas de redistribution.



Si je prend un bout de code de 10 lignes d’un projet sous GPL et que je l’utilise dans une sous-librairie d’un projet sur lequel je bosse, tout le projet sera obligatoirement sous GPL en cas de redistribution.







Le 24/09/2012 à 08h 17







lateo a écrit :



Le but de la GPL est de garantir la liberté de l’utilisateur tout en assurant à l’auteur qu’il ne sera pas spolié de la parternité du code.





GPL est une licence copyleft, et n’oblige donc pas à mentionner l’auteur. La garantie de la paternité du code incombe aux mécanismes de droit d’auteur standard.


Le 22/09/2012 à 23h 41







sylware a écrit :



bin euuuh….. c du script dont le source est loadé dans le navigateur. Or le but de la gpl est d’avoir un bras de levier legal pour tenter de conserver le code open source optimal. Or avec du javascript on a toujours le source, donc la gpl ne semble pas vraiment justifié comme protection.







Non, la GPL ne sert pas à garder le code open source open source, elle sert à garder le code libre libre. En licence MIT, demain, je reprend jQuery, je le modifie lourdement, et je le met en prod sur mon site avec une licence d’utilisation ‘toute reproduction strictement interdite’ me permettant d’attaquer en justice toute personne réutilisant ma version modifiée… Je peux également prendre le code javascript, le modifier et le passer par une moulinette d’obfuscation de sorte que le code résultant soit à peu près aussi amusant à maintenir qu’un fichier binaire.


Le 22/09/2012 à 08h 51







brazomyna a écrit :



C’est justement ce point que j’aimerais éclaircir.







Euh, j’ai pas écrit ça… là tu cites quelqu’un d’autre avec mon nom. Et non, tu ne peux pas mettre du code GPL (standard sans exceptions) dans ton projet sans que celui-ci ne devienne GPL… si et seulement si tu comptes le redistribuer: si ton projet est juste à titre privé et qu’il ne sort pas de chez toi ou de ton entreprise, tu fais ce que tu veux.


Le 21/09/2012 à 20h 07







brazomyna a écrit :



(vraie question) Es-tu sûr de ce que tu avances ?







Par défaut, si tu link une librairie GPL, ton projet doit être en GPL. L’exception officielle à cette règle est la LGPL.







brazomyna a écrit :



Pour moi la GPL oblige à publier le source des modifications et des entités qui l’intègrent, mais pas nécessairement celles qui l’utilisent (dit autrement qui s’interfacent avec elle). Beaucoup de libs intègrent la notion de GPL linking exception.







Non non, lier = intégrer… sinon, ce serait trop facile, la GPL se contournerait simplement en jouant avec les options de build d’un logiciel.



“GPL linking exception” = exception à la licence GPL classique… c’est une déviation par rapport à la licence GPL, et ces exceptions doivent pouvoir tomber lorsqu’il s’agit, par exemple, d’intégrer la librairie en question avec du code GPL.

Pour la GNU Classpath, cette suppression d’exception se traduit dans la licence par “ If you modify this library, you may extend this exception to your version of the library, but you are not obliged to do so. If you do not wish to do so, delete this exception statement from your version.”


Le 21/09/2012 à 11h 37







SebGF a écrit :



Comme dit dans de précédents commentaires, le plus difficile n’est pas de pondre une norme, mais que cette norme convienne à tous.







Et facteur rendant les choses plus difficiles: dans le monde des navigateurs, chacun veut montrer sa différence, voir même des agendas visant à minimiser l’usage du navigateur, ce qui rend la mise en place d’une norme que tous les acteurs respectent encore plus difficile.


Le 21/09/2012 à 09h 08







djbudge2 a écrit :



HTML 4.01 : 1999

HTML 5 Draft : 2008

HTML 5 finalisé : 2014



Soit on a affaire à une belle brochette d’incompétents, soit les guerres internes sont complexes.









au W3C, on a eu plutôt :



HTML2: 1995

HTML3.2: 1997

HTML4: 1997

HTML4.01: 1999

HTML4.01 strict devient standard iso: 2000



XHTML 1.0 : 2000

XHTML 1.1: 2001



On peut dire que les standards évoluaient assez vite à l’époque… mais quand le W3C est venu avec le XHTML2.0, réécriture radicale des standards du web laissant tomber la rétro-compatibilité avec les anciens navigateurs, certains éditeurs de navigateurs exprimèrent la volonté de plutôt faire un HTML5.









Le 19/09/2012 à 13h 16







Consultant a écrit :



Faux





Mwais, bof… plein de gens aussi infaillibles que lui ont dit le contraire…


Le 19/09/2012 à 12h 29







nainbécile a écrit :



C’est pareil dans la religion catholique.







C’est pareil dans à peu près toutes les religions: la bonne raison d’être croyant est que si tu l’es pas, tu vas morfler dans cette vie et encore après…

Faut que les fidèles puissent contempler ceux qui sont dans l’erreur en se disant “moi j’ai fait le bon choix, Dieu me sauvera”.



Le 19/09/2012 à 11h 53







aurel_gogo a écrit :



et la possibilité d’utiliser des fichiers supérieur à 4Go.



Je crois avoir lu, je ne sais plus, où que le NTFS n’est pas très bien adapté à des supports amovibles et que M$ l’avait conçu pour des OS et non des supports amovibles.







disons que c’est surtout pour la flash que NTFS n’est pas très adapté… trop de secteurs écrits par transaction = usure accélérée… mais exFat n’a pas l’air super optimal non-plus à ce niveau…


Le 19/09/2012 à 09h 19







jinge a écrit :



Quel est l’avantage pour RIM d’utiliser un tel système? Performances? La lisibilité des cartes SD sur un PC? Ou autre?





Compatibilité avec Windows (qui ne reconnaît que les systèmes de fichier Microsoft)

En dehors de ce point, il existe de nombreux systèmes de fichiers éprouvés qui peuvent remplir le rôle avec élégance et sans coûts additionnels, mais ils ne sont pas supportés par Microsoft.



Le grand gagnant reste bien entendu ce dernier qui touche des droits de licence sur tous les périphériques utilisant exFat ou les monnaie contre des accords sur les brevets.


Le 17/09/2012 à 08h 18







Dunaedine a écrit :



Sauf que Google ne pourra pas s’amuser à cela en fait. Il lui sera pratiquement impossible de bloquer le référencement indirect par les réseaux sociaux, dont G+. Et je suis sûr qu’ils vont jouer là-dessus. Google ou les autres moteurs de recherche vont devoir se séparer de fonctionnalités entières pour réussir empêcher le référencement.





Ben là ce sera la taxe suivante: une taxe au lien dans les réseaux sociaux… à chaque fois qu’un article est cité ou référencé sur une page facebook, facebook doit payer… deux semaines après l’introduction d’une telle taxe, facebook met les sites de presse français en blacklist et met à jour ses conditions d’utilisation pour interdire le fait de citer des articles de la presse française sous peine de suspension du compte.


Le 14/09/2012 à 13h 04







Gilbert_Gosseyn a écrit :





  • chez Intel : les Core ix en sont tous pourvus (à vérifier pour les i3), les Core 2 Duo et Quad, ça dépend …







    Pas en ce qui concerne le VTd… c’est loin d’être systématique.


Le 13/09/2012 à 18h 04







Pochi a écrit :



L’évolution est la théorie n°1 pour la communauté scientifique. C’est même celle retenue par la plupart des systèmes scolaires occidentaux.







Ben il y a aussi la gravitation universelle comme théorie enseignée … mais bon

il y a aussi les défenseurs de la chute intelligente (cfr http://www.theonion.com/articles/evangelical-scientists-refute-gravity-with-new-…


Le 13/09/2012 à 17h 47







foulcand a écrit :



Je démontre juste que la théorie de l’évolution n’est pas valable. Je n’ai pas la prétention de prouver quoi que ce soit d’autre.





Pinaize, on a un canon de la science sur le forum qui invalide la théorie de l’évolution comme ça, entre deux pets bibliques… Si ça c’est pas déjà prétentieux…


Le 12/09/2012 à 21h 21







amenophis57 a écrit :



Le film est vraiment mauvais …c’est presque comique . Il faut vraiment etre debile pour s’attarder dessus …







Ben oui, mais mon impression est que le film est justement conçu pour exciter les débiles. Je ne pense pas que l’auteur espérait quelque-chose de très différent. Et malheureusement quelques hordes de sauvages lui ont donné raison aux yeux du grand public.


Le 12/09/2012 à 20h 12







Sam LAYBRIZ a écrit :



…M’enfin est ce que ce genre de fiction rejoindra un jour la realité…







Vu qu’il y a 1,6 milliards de musulmans, on peut imaginer qu’un gros paquet n’a pas eu la réaction bas de plafond de ceux qui ont fait les émeutes…