Google, la presse, la crémière et le cul de la crémière

Reflets est un média que l’on pourrait qualifier d’irrévérencieux, cet article ne va pas arranger les choses, mais il fallait pas nous chercher. Ne vous attendez donc pas à lire dans les lignes qui suivent une éloge de la presse ou de Google. Si vous êtes partisan de faire passer Google à la caisse pour indexer les titres d’articles dont une bonne partie sont ceux issus d’un travail intellectuel de haut vol consistant à remixer les mots employés dans le titre d’une dépêche AFP… là en revanche, installez vous confortablement, nous allons vous montrer à quel point la presse se la joue faux-cul sur ce point précis. Tout a donc commencé par l’attentive lecture du billet de Kitetoa concernant l’approche du NouvelObs. C’est effectivement super drôle en soi, mais c’est sans compter sur la créativité de challenge.fr un autre des médias du groupe de presse qui a décidément de la suite dans les idées.

Voici l’exemple type de ce que nous pouvons qualifier de robots.txt parfaitement crétin :

Ces quelques lignes ont de quoi nous faire hurler de rire tellement c’en devient pathétique :

## L'utilisation de robots ou tout autre méthode automatique pour consulter le site challenges.fr/magazine/
## est formellement interdite.
## Les autorisations accordées par l'éditeur sont notifiées dans le présent document (/robots.txt)
## Aucune exploitation commerciale gratuite ou payante des contenus et des marques n'est autorisée sans accord express de l'éditeur. Merci de nous contacter sur reproelectronique-at-nouvelobs.com

Petit rappel : le robots.txt a pour seule et unique fonction de demander aux moteurs de recherche de référencer ou non les contenus spécifiques ou l’ensemble d’un site. Vous vous doutez bien que Google ne passe pas un coup de téléphone à chaque site pour lui demander son autorisation de l’indexer, il a des petits programmes, des robots, qui se chargent de ce travail. Il est donc rarissime, quasiment improbable, qu’un utilisateur consulte ce fichier. Il n’est pas référencé lui même dans les moteurs de recherche et parfaitement inutile au commun des mortels. Encore une fois, ce fichier ne s’adresse pas à des humains, mais à des agents logiciels.

Vous comprenez donc maintenant pourquoi il y a de quoi se plier en quatre quand on découvre ce splendide robots.txt de Challenge, qui explique à des robots ses CGU, et qui en plus leur demande d’envoyer un email à reproelectronique@nouvelobs.com pour demander l’autorisation d’indexer ses contenus. On imagine bien un bot lire avec attention un commentaire (par définition illisible par sa cible). Ça donnerait à peu près ceci :

– « Bonjour je suis RefletsBot, je voudrais indexer vos articles pour les agréger dans les rubriques de mon site qui vont bien et que mes lecteurs puissent accéder à vos contenus de qualité »

– « Bonjour RefletsBot, je suis ChallengeRobots.txt, je suis au regret de t’informer qu’après consultation de mon avocat en propriété intellectuelle, je ne suis pas trop assuré que tu en ais vraiment le droit. Je suis désolé tu ne pouvais le voir j’ai laissé ceci en commentaire, donc naturellement tu risquais pas de le lire, mais il est écrit en toutes lettres « Les autorisations accordées par l’éditeur sont notifiées dans le présent document (/robots.txt) », vu que tu n’y figures pas, peut-être devrais tu demander à ton Postfix de nous envoyer un petit email à reproelectronique@nouvelobs.com pour qu’on étudie ton cas. »

– « Cher ChallengeRobots, je suis d’origine chinoise et je ne suis pas sûr d’avoir les bons dico juridiques pour générer automatiquement un email et demander à mon Postfix de te l’envoyer avec ses petits bras musclés, je te propose donc d’aller te faire cuire un oeuf, j’irais récupérer les remix de titres de l’AFP chez tes concurrents, bisous. »

Comble du ridicule, vous vous doutez bien qu’une clause légale du type « Les autorisations accordées par l’éditeur sont notifiées dans le présent document (/robots.txt) » n’a comme valeur juridique que le ridicule qui pourrait provoquer une crise de fou rire à un juge un peu geek. Nous attendons avec impatience le formulaire de contact dans le .htaccess ou le numéro de téléphone dans le /etc/passwd, allez encore un petit effort, c’est pas parce que vous touchez le fond du copyright troll que vous n’avez pas le droit de continuer à creuser.

Une autre perle de ce robots.txt, exemple type d’une condition d’utilisation en parfaite contradiction avec ce qu’il est techniquement, à savoir un site qui pisse du XML dans tous les sens : il fallait oser interdire aux lecteurs de lire ses contenus via un agrégateur RSS, Challenge n’a pas peur du ridicule… il l’a fait, je cite :

"L'utilisation de robots ou tout(e) autre méthode automatique pour consulter le site challenges.fr/magazine/ est formellement interdite."

Nous avons bien rigolé avec Challenge.fr, et il ne s’agissait pourtant que de la forme, je vous propose que nous nous attaquions maintenant au fond.

Par exemple si Challenge, le NouvelObs, ou n’importe quel autre site ne voulait pas que Google s’enrichisse avec ses titres remixés de dépèches AFP, au lieu de raconter bêtement sa vie à des agents logiciels, il rajouterait dans son robots.txt  un truc qui ressemble à ça :

User-agent: GoogleBot
Disallow: /

Cette directive, très simple nous dit la chose suivante :

« Les robots de Google  (User-agent: GoogleBot) n’ont le droit (Disallow), d’indexer aucun des contenus du site (le / réprésentant la racine du site). »

Mais non… au NouvelObs, on préfère tuer les « petits bots » de « petits agrégateurs »… en leur interdisant  d’indexer les contenus, et laisser Google tout indexer… c’est étrange non ? En fait ce n’est pas si étrange que ça, c’est parfaitement crétin et contradictoire, mais ce n’est pas étrange. Pour un groupe de presse, il est plus simple de tuer dans l’oeuf un petit en lui interdisant l’indexation et d’hurler au monopole de Google pour tenter de lui racketer une rémunération en allant pleurnicher comme l’ont fait les industriels du disque avec Youtube (et dans un contexte très différent), que de retirer le droit à Google de donner accès aux contenus de son site.

Concrètement, aujourd’hui si la presse se coupe de Google, elle se coupe, d’Internet pour une immense majorité d’internautes du monde entier qui ne connait pas d’autres moyens d’accéder à ses contenus que par un résultat de recherche Google ou via l’agrégateur Google News. Vous seriez surpris du nombre d’internautes qui ignorent l’existence d’une barre d’adresse sur leur navigateur. Google et plus particulièrement Google News offrent un agrégateur qui est un point d’entrée à l’actualité pour de nombreuses personnes. Les résultats naturels de recherche de Google pointant sur des articles de presse représentent aussi une partie particulièrement importante du trafic de beaucoup de sites de presse. Et la condition pour y figurer, c’est bien entendu d’autoriser les robots de Google d’indexer ces contenus pour qu’il puisse les restituer dans ses résultats de recherche.

Oh tiens c’est amusant, n’assisterions-nous pas là à un schéma que nous connaissons bien ? Celui des fabricants de culture sur rondelle de plastique, les industriels du disques qui refusent de voir leur catalogue mêlé à celui de la concurrence. En refusant de voir les titres de ses articles, dans un agrégateur, mélangés à ceux de la concurrence, la presse nous laisse gentiment entrevoir qu’elle est sur le point de devenir aussi stupide que les crevards du disque.

Mais ce n’est pas là le seul parallèle idiot que nous pourrions faire. En d’autres temps, quand Google n’était pas le géant qu’il est devenu et que nous tapions nos recherches sur les nains de jardin Altavista ou sur Copernick, une condition d’utilisation un peu étrange fleurissait sur quelques sites, notamment des sites gouvernementaux En voici un exemple :

7. LIENS, ENCADREMENT, COPIE IMAGE MIROIR, GRATTAGE, EXPLORATION EN PROFONDEUR DE DONNÉES ET AFFICHAGE INTERDITS

Il est strictement interdit de créer des liens au site Web sans l’autorisation écrite expresse de Toto. Pour demander la permission de créer un lien au site Web, veuillez vous adresser par courriel à l’adresse toto@pouet.com. Toto se réserve le droit d’annuler et de révoquer une telle autorisation visant la création d’un lien avec le site Web en tout temps, sans avis et sans engager sa responsabilité envers vous ou toute autre personne.

L’encadrement, la copie image miroir, le grattage ou l’exploration en profondeur de données du site Web ou de son contenu, sous quelque forme que ce soit et de quelque manière que ce soit, sont strictement interdits. Il est interdit d’utiliser des technologies de visionnement ou d’affichage collaboratives relativement à votre utilisation du site Web ou d’afficher des commentaires, des communications ou quelque forme de donnée que ce soit sur le site Web avec l’intention que de tels affichages soient vus par les autres utilisateurs du site Web.

Aussi consternant que ceci puisse paraitre, il existe donc des sites parfaitement publics vers lesquels vous n’avez pas le droit de faire de lien ! Des sites dont AUCUNE URL ne peut être partagée sur Facebook ou Twitter sans que l’on demande l’autorisation préalable écrite au service juridique du site en question.

Sérieusement les gars, faites vous un intranet, envoyez vos articles par la Poste à vos lecteurs, là au moins, vous contrôlerez leur diffusion. Laissez un Internet neutre aux grandes personnes et arrêtez de nous bassiner avec votre taxe Google à la con. Vous êtes sur un réseau public, Internet, qui est une machine à copier, et Internet, c’est comme la France, tu l’aimes ou tu te casses. Les informations pour être diffusées et lues, se copient de serveurs en serveurs avant de parvenir au lecteur chez qui l’information sera également copiée dans le cache du navigateur. La prochaine étape c’est quoi ? C’est de demander au FAI une rémunération proportionnelle au nombre d’abonnés qui lisent vos contenus ?  Demander aux éditeurs de systèmes d’exploitation ou de navigateurs web une taxe sur les données en cache ?

Arrêtez votre hypocrisie, si vous n’êtes pas joasse que Google vous apporte du trafic et donc des revenus publicitaires, nous vous suggérons un

User-agent: GoogleBot
Disallow: /

dans votre robots.txt. L’effet est garanti, presqu’immédiat et au moins vous aurez l’air moins ridicules devant vos contradictions.

Et puisque la presse a décidé de lancer un concours de robots.txt crétins, Reflets aussi a décidé de jouer :

 

Twitter Facebook Google Plus email

73 thoughts on “Google, la presse, la crémière et le cul de la crémière”

  1. J’étais mort de rire à la lecture du robots.txt de Challenge.fr.

    Sérieusement !? Les mecs qui ont remplis le robots.txt c’est pas des journalistes, c’est des informaticiens hein.
    Ça les faits pas tilter de mettre ça dans un robots.txt ?

    Sinon je serais Google la seule réponse que je donnerais aux journalistes sur la question de leur référencement ça serait celle-ci :
    http://support.google.com/news/publisher/bin/answer.py?hl=en&answer=93977

    RTFM quoi !

    1. Je ne connais personnellement aucun développeur à qui il passerait par la tête de coller des conneries juridiques en commentaire de code d’un fichier qui n’est pas destiné à des humains, quelque chose me dit que le développeur n’y est pas pour grand chose…

      1. Ou alors, le développeur a été obligé de faire ça.

        Le genre client bien buté, qui a trop regardé les séries d’avocats à la télé.

        Après avoir tenté de leur expliquer que c’est stupide, on cède de guerre lasse tout en sachant que de toutes façons, au pire, ça fera rigoler un confrère.

      2. Comme cela a été noté dans l’un de vos articles, la presse utilise beaucoup de stagiaires et demande une grande polyvalence à ses employés. Il est donc possible que ce soit l’œuvre d’un employé pas développeur pour un sous ou d’un stagiaire qui a suivi les directives sans l’ouvrir.
        Surtout que les stagiaires en infos aujourd’hui faut ramer pour en avoir un compétent, j’ai interviewé et testé pas mal d’alternants les mois derniers et quand je vois le code de certains « développeurs » BAC + 3 – et surtout leur manière de travailler – plus rien ne m’étonne.

  2. Haha, excellent.
    Les webmasters de certains sites sont de vrais artistes.
    Les Directions de ces journaux n’ont décidément rien compris au web. Le coup des flux RSS, c’est à se pisser dessus !

    J’ai adoré le « grattage et exploration en profondeur ». Frottis interdits ? Les gynécos vont faire la gueule.
    C’est pas le moment de dégainer son httrack !

    Et le « Allow: http://thepiratebay.se/* ….
    j’en ai les larmes aux yeux ! !
    Vite, un apéro, c’est l’heure : à la vôtre les gars.

  3. Attentions aux fôtes !!
    J’en ai relevé au moins deux :
    « j’ai laissé ceci en commantaire » ==> en commentaire.

    « je suis d’origine chinoise et je ne suis pas sur… »
    S’il est d’origine chinoise, il lui faut un chapeau ==>
    « Je suis d’origine chinoise et je ne suis pas sûr… »

    « c’est pas parce que vous touché le fond »
    Grmbl !!
    « Ce n’est pas parce que vous touchez… » Rhoo !! ;-)

    Ensuite, mais je ne suis pas sûr :
    – les creuvards du disque ==> les crevards
    – si vous n’êtes pas joisse ==> jouasse ? non ?

    Bon article cependant, je me suis bien amusé et j’ai appris des choses, encore.

    Cette affaire avec Google, ça n’a pas finit de leur péter à la gueule !

  4. Bluetouff, pour faire suite à ton article et celui de Kitetoa sur le sujet, on pourrait y mettre en face l’attitude de Google.
    Envoyer de simples robots auprès des vénérables journalistes, c’est ne pas leur laisser beaucoup de choix de réponse : acceptez vous de me fournir votre contenu en échange d’une visibilité conséquente? C’est oui ou non. Pas d’alternative.
    Imposer un vocabulaire aussi exigu semble un peu autoritaire.
    On peut ici s’interroger sur la légitimité de l’autorité de Google. Pourquoi Google devrait donc choisir seul les conditions de l’accès au contenu des journaux? Et pourquoi le faire avec aussi peu d’ouverture à la négociation que des robots protocolaires à questions fermées?
    Ce minimalisme ne permet à aucun moment aux journalistes, et plus généralement à tout fournisseur de contenu de pouvoir mettre en balance ses impératifs de fonctionnement. Et chez Google ils s’en cognent, parce qu’ils abusent tranquillement de leur position dominante.
    C’est cette surdité latente de Google qui permet, entre autres causes, à des absurdités comme le robots.txt de Challenges d’exister.
    Cette même surdité qui coince tous les fournisseurs de contenu dans un paradigme binaire du « m’affichera, m’affichera pas », peu propice à des évolutions innovantes des moyens de découverte et de diffusion.

    1. @sempiternel, tu soulèves des points intéressants que je vais malheureusement balayer d’un rever de main en arguant d’une triste réalité technique.
      Internet est un réseau public, ce qu’on y publie sans restriction technique de lecture (un mot de passe) est public. Si on veut pas que ce soit public, on ne publie pas ou on publie sur minitel, … ou sur un réseau non public. On demande pas à la presse d’etre d’accord ou pas d’accord on lui demande de faire avec ou de pas faire.
      Si elle veut tirer bénéfice de ses titres de news, elle fait comme mediapart, elle ferme certains contenus et fait appel à ses lecteurs.
      Sincerement je prefere l’attitude de mediapart sur ce business model, mediapart va pas venir remettre en cause un fondement si important que la neutralité du net sous pretexte qu’il cherche à racketer les agrégateurs

      « C’est cette surdité latente de Google »
      C’est FAUX/ Googgle met à disposition des webmaster des outils qui leur permettent de générer des robots/txt ou des tags pour eviter l’indexation, c’est sur leur site dédié au support technique, la presse n’a qu’à RTFM

      « paradigme binaire du « m’affichera, m’affichera pas », peu propice à des évolutions innovantes des moyens de découverte et de diffusion. »
      AH ben oui c’est binaire, comme la dispo d’une info, soit elle est publiée soit elle ne l’est pas, je ne vois pas ce qui choque.
      Evoluer, inover, super, c’est très bien… mais évoluer seul dans son coin ou en ligne ?
      Allez demander au HuffingtonPost s’ils bloquent Google.
      Pourquoi ce problème avec Google est il franco franchouillard ?
      Vous voulez vraiment le savoir… et bien je vais vous le dire, c’est l’un des héritages nauséabond de Sarkozy qui a déclaré en 2007 « comment voulez vous que les gens achètent encore des journaux alors que tout est disponible sur Internet »
      s’en est suivi une campagne de séduction de la presse sur ces sujet, « et en montant le bourrichon d’une profession en détresse, on se trouve un gros ennemi américain… voilà

      1. Il est bon, mais cela a du être dit ici déjà, de se rappeler qu’au début, tout le monde cherche à être référencé par Google.
        Ensuite, une fois bien installé sur la toile, on veut le contraire ?
        C’est du vol.
        Google devrait les effacer de son référencement. Je suis certain qu’il aurait le dernier mot. :)

      2. Je n’oublie pas qu’internet est une place publique. Nos éditocrates, vénaux et maladroits, ne sont pas défendables, mais Google n’a pas non plus le profil d’un saint. C’est une personne morale qui se doit de nourrir ses actionnaires. Donc s’il y a conflit d’intérêts entre les utilisateurs de la place publique qui y entre par Google et la rentabilité financière permise par le fonctionnement de cette porte, on peut deviner où penche la balance.
        Neutralité mon cul.

        Je ne fais pas d’amalgame entre Google et le web (et encore moins avec internet), mais je prends en compte les habitudes des français sur le réseau. Et tu en as très bien parler toi aussi en évoquant la confusion répandue entre barre d’adresse et formulaire de recherche.
        Et si les français mettent en question systématiquement la légitimité de Google, c’est surement plus dû à son omniprésence qu’aux capacités de Nicolas Ier à instrumentaliser un questionnement au départ légitime.

        Sur la « surdité latente de Google », j’ai un peu trop grossi le trait, tu as raison de nuancer la chose.

    2. Le robot de google offre un choix binaire ? Oui et non.
      – pas plus binaire que les robots de tous les autres moteurs
      – chaque site peut choisir ce qu’il autorise -ou non- à l’indexation par ces robots (voir lien donné par bim_ plus haut)

      « des évolutions innovantes des moyens de découverte et de diffusion »
      Il me semble que déjà aujourd’hui, la panoplie est très riche, hors moteurs de recherche.
      Pages Facebook des journaux, usage de Twitter, pubs sur certains sites (payant), Newsletters sur opt-in du lecteur quand ce n’est pas carrément du spam lorsqu’on s’inscrit à tel ou tel « service » pour un sujet où on souhaitait avoir des infos… flux RSS pour son agrégateur préféré. Et je ne parle pas des services pour mobiles.
      La presse française fait exprès de tout mélanger pour avoir la fermière en plus du beurre. Google News (ou Yahoonews, etc) n’offrent pas le contenu des articles, mais un titre et un court extrait, avec le lien pour aller lire l’article sur le site d’origine. Et ce qui les chagrine, c’est que google arrive à faire de l’argent avec ça (et pas uniquement ça : le moteur en lui-même, évidemment).
      Je ne suis vraiment pas un goole-fan, mais là, la presse française est d’une mauvaise foi écoeurante en voulant faire payer à ceux qui réussissent son manque d’innovation et son manque de qualité.
      Le parallèle avec l’industrie du divertissement me paraît réellement justifié.

    3. Juste pour rappel : la position « dominante » de google, il l’a acquise tout seul à base de jus de cerveau (tant au niveau des algorithmes que du modèle économique). Bref, google innove, s’étend et prospère. Après, des journaux qui eux restent dans leur modèle du XIXème et qui n’innovent pas un iota se plaignent… C’est une blague ? Google ne force personne à utiliser ces services, et j’ajouterai que sa « domination » n’est que relative car dans d’autres régions du monde (asie notamment), il n’est clairement pas dominant. Bref, si l’approche google ne vous sied pas chers éditeurs de papiers, devenez populaires à la force de vos neurones et le problème est réglé non ?

      1. « il l’a acquise tout seul à base de jus de cerveau (tant au niveau des algorithmes que du modèle économique) » : c’est fonctionnel, y’a du mérite, mais ça ne garantie pas un résultat éthiquement acceptable par le plus grand nombre. Exemple : Goldman Sachs

  5. Publier sur le réseau des réseaux quelque chose qu’on ne veux pas partager m’a toujours profondément agacé.
    Ce type d’initiatives, outre le fait qu’elles soient totalement ridicules, en plus d’être insultantes, sont les prémices des multiples tentatives des argentiers de transformer ce qui était à l’origine un monde d’échange libre et universel, en gigantesque supermarché où tout est bon pour gagner des sous.

    Personne n’a dit nulle part qu’il fallait absolument avoir un site internet, et qu’une fois qu’on en avait un, il fallait tout verrouiller pour être certain que conserver la cagnotte.

    Ainsi, la règle devrait être la suivante :
    si tu es sur le net, alors partage sans compter. Sinon retire toi et fais autre chose.

  6. Comme prévu, nous passons de l’enculage de mouches à l’enculage de puces, sans complexe.

    Là où il y a d’ la gène, y a pas de plaisir.

    Mais n’oubliez pas, à l’heure de la nano, ils en veulent beaucoup plus…

    À force de sucer, ils avalent leurs merdes !

    Mais c’est qu’ils aiment çà les cochons. Vite une Hodapine spéciale presse en surchauffe…

    Je ne sais pas ou ils se là fourrent, mais c’est bien profond et rondement carré.

    Merci la touffe-bleue.

  7. À mourir de rire…

    Il est paradoxal (comme le dit le monsieur au-dessus de moi) de partager une connaissance sur un réseau de partage de connaissance (mais pas que) et d’y interdire son partage (mais pas que) …

    Je me demande si le monde n’arrive pas vers une singularité qui risque d’entrainer le déclin d’internet telle que je l’ai connu depuis sa création ?

    wait & see

  8. J’ ai trouvé cet article excellent, le paradoxe absurde bien expliqué aux noobs comme moi. Mon passage préféré qui résume bien l’ idée générale, je cite : « Vous seriez surpris du nombre d’internautes qui ignorent l’existence d’une barre d’adresse sur leur navigateur. » Merci, j’ imagine déja le président de Google préparant son voyage et rigolant dans sa moustache.

  9. et pendant que certains révent de la fiscalisation d’une nouvelle rente , personne ne relève que le danger majeur que fait courir google et ses petits robots , c’est l’application de l’algorithme dit de Nolwen Leroy « un million de connes et moi utilisons panténe, on est tellement nombreuses qu’on peut pas se planter » … on me glisse coté oreillette qu’on appelle ça google suggest ?

  10. Bonjour,
    Quelques suggestions, irrévérencieuses elles aussi…

    -> Pourriez-vous arrêter les titres racoleurs à la rue89, et nous autoriser à savoir réellement ce qu’on s’apprête à lire?
    -> Dans la même veine, le court texte sous le titre sous la page d’accueil pourrait-il être un résumé, voire une accroche de l’article, au lieu des premiers mots suivis de 3 petits points?

  11. J’aimerais tellement que google les désindexent ces cons… Il comprendraient pourquoi tout ceux qui sont pas trop stupides en informatique sont actuellement en train de se foutre de leur gueule.

    Et en tant que dev, je suis de plus en plus désespéré. Je vais probablement me cryogéniser quelques décennies et revenir quand l’humanité aura enfin assimilé un minimum la technologie >_<

  12. Bravo. Un article qui remet les pendules à l’heure.
    A propos, je me demandais quelle était la méthode de « rank » dans Google news. Quelqu’un aurait-il des infos plus précises que ce qu’en dit Google, à savoir :
    « Nos articles sont sélectionnés et classés par des ordinateurs qui s’appuient sur divers facteurs, tels que la fréquence de diffusion d’une information en ligne et les sites sur lesquels celle-ci apparaît. »
    Quels sont les facteurs en question, s’agit-il des même que pour le « rank » dans la recherche web ? Cela expliquerait la pauvreté des sources utilisées en première page de google news (comment expliquer la prépondérance de titres comme 20 minutes ou le parisien ??). Contrairement à ce qu’affirme Google :
    « vous pouvez choisir à partir d’une large variété de perspectives. » la diversité et la pluralité est très limitée… et du coup l’affirmation que « les articles sont triés sans tenir compte de leur orientation politique ou idéologique » est toute relative quand on voit la prépondérance des holding des marchands d’arme Lagardère ou Dassault…

  13. Il sont sympa ces edi… (j’ai failli être grossier)

    Le capitalisme a ceci de délicieux, c’est qu’il déteste le capitalisme, et les « libéraux » sont les champions toute catégories de demande de régulation, aide, collectivisation.

    En ce qui concerne l’industrie (capitaliste) de le presse et du divertissement (panem …) il n’y a qu’à lire pour comprendre (suivre le lien suivant vers Médiapart)

    http://blogs.mediapart.fr/blog/vincent-truffy/090910/aides-la-presse-le-rapport-cardoso-en-5-tableaux

    A la fin, il ne reste derrière ces considérations qu’un banal rapport de force entre « une élite » et une population brimées.

    nous constatons tous les jours que nous sommes revenu quelque part au XvIII ème siècle.

  14. ouf, ça poste plus vite que son ombre, ici, on n’a pas droit à une erreur de frappe.

    La force du référencement Google, c’est l’ordre dans lequel apparaissent les news. Ce n’est pas un comité de rédaction qui décide ce que sera à le Une, mais un algorithme multicritère. C’est bien ce qui les embête, les gens qui nous gouvernent. Ils ne peuvent plus manipuler l’opinion publique avec leur choix des Unes, c’est le peuple des lecteurs qui choisit démocratiquement quelle info on privilégiera par rapport à une autre. Avec l’agrégateurs comme Google News, ils perdent encore un levier pour minimiser ce qui ne les arrange pas.

    Ils ont envie d’arrêter les marées, boucher les volcans, calmer le vent, et réglementer les nuages. Mais allez-y, et bon courage!

  15. 1- Google indexe tout ce qui passe si il y est autorisé via le robot.txt
    2- Google n’est pas un service public et n’a aucune obligation à l’exhaustivité (ni même à l’objectivité).
    3- si Google doit payer les sites indexés pour figurer dans Google, Google ne les indexera pas.

    Plus terre à terre, oblige t’on Michelin à sponsoriser les restaurants qu’il référence et distingue dans son célèbre guide ?

    Et y’a pas que Google…

  16. Ping : Revue du web #2

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *