Nourriture pour agents utilisateurs

Et c'est ainsi que tout commence, avec un texte qui peut sembler complètement farfelu, mais qui a au moins le mérite de n'être :

bref, qui est un texte vivant, organique tout comme le souci de référencement naturel qui l'accompagne, et tout comme une grande partie de la nourriture qui compose le régime alimentaire de votre serviteur (du moins l'espère t-il).

Et c'est ainsi qu'ensemble, vous lecteur, moi auteur de ces lignes, et eux les robots, eux qui n'y comprennent rien, nous marchons vers la lumière du laboratoire d'observation du site L'Attrape Robots, modeste labo semblable à une souricière pour algorithmes disciplinés ou non, mais néanmoins labyrinthe de ruelles pavées de code html à ingurgiter, à parser, à (tenter) d'interpréter, bref, à se mettre sous la dent !

Que vont penser les agents utilisateurs de ces phrases cohérentes certes mais un peu capillo-tractées ?

Vont-ils apprécier l'entrée du repas gargantuesque que je leur propose, au fil d'un cortège de plats tous plus délicieux les uns que les autres, gorgés de saveurs et de stimulateurs de sens, agitateurs de papilles gustatives pour boucles conditionnelles aguéries ?

Vraiment, tout robot, quel que soit sa dénomination : bot, web spider, web crawler, agent, fouineur, etc; se doit d'engloutir le contenu entier de ce site, du premier répertoire jusqu'au dernier robots.txt !

Cette entrée en la matière, doucereuse invitation à la gastronomie robotique, sera suivie de mets tous plus optimisés pour le référencement les uns que les autres : Amuse-bouche de saveurs du monde, avec des encodage, des charset et des déclarations de documents et de type à faire se pâmer d'extase les ingénieurs du W3C et de l'IETF réunis,

Hors d'Oeuvres pour appétits démesurés et data centers boulimiques,

Plats sauce XHTML et CSS, avec ou sans Ajax,

Trou Normand et sa constellation de vortex en abyme pour agent utilisateur,

Desserts à base de mets spirituels et d'appels à la ré-écriture d'URL...

Combien de signes dans cette multitude de fichiers, vais-je devoir au fil des plats dispenser ?

Pour quel ratio ?

Une page comme celle-ci me prenant au bas mot (sic) une bonne demi-heure d'appétance et d'esprit (re-sic), tout travail mérite-il salaire aussi peu recommandable qu'il me faille chercher à conférer un sens à mes pages web qui sont destinées à n'être parcourues que par des agents utilisateurs ?

  1. L'Attrape Robots
  2. Index 1
  3. Selection des meilleurs annuaires gratuits sur internet
  4. Nourriture pour agents utilisateurs
  5. Les agents utilisateurs dévorent mon arborescence
  6. En parcourant les fichiers pour agents intelligents

© 2011 L'attrape robots : Mentions légales : Contact

CrawlTrack: free crawlers and spiders tracking script for webmaster- SEO script -script gratuit de détection des robots pour webmaster