Alors maintenant, la forme de l'URL Ajouter a aussi un test: il affiche quelques lettres ondulées conçus pour tromper automatisé «lettre-guessers"; il vous demande d'entrer les lettres que vous voyez - quelque chose comme un test oeil-chart pour arrêter les robots des spammeurs. Lorsque Googlebot récupère une page, il cueille tous les liens figurant sur la page et les ajoute à une file d'attente pour l'analyse ultérieure. Googlebot tend à rencontrer peu de spam, car la plupart des auteurs de Web Link seulement pour ce qu'ils croient être les pages de haute qualité.
Par des liens de récolte de chaque page qu'il rencontre, Googlebot peut rapidement construire une liste de liens qui peuvent couvrir de larges tronçons de la bande. Cette technique, connue sous le nom ramper profonde, permet également Googlebot pour sonder profondément dans des sites particuliers. En raison de leur grande échelle, les analyses profondes peuvent atteindre presque à chaque page dans le Web. Parce que le web est vaste, cela peut prendre un certain temps, de sorte que certaines pages peut être analysé qu'une fois par mois.
Bien que sa fonction est simple, Googlebot doit être programmé pour gérer plusieurs défis. Premièrement, étant donné Googlebot envoie des demandes simultanées pour des milliers de pages, la file d'attente de «visiter bientôt» URL doit être constamment examinées et comparées avec des URL déjà dans l'index de Google. Doublons dans la file d'attente doivent être éliminés pour empêcher Googlebot d'aller chercher de la même page. Googlebot doit déterminer la fréquence de revisiter une page. D'une part, il est un gaspillage de ressources à ré-indexer une page inchangée.
D'autre part, Google veut ré-indexer les pages modifiées pour offrir une mise à jour des résultats. Pour garder le courant d
(PT…