*   >> Lecture Éducation Articles >> tech >> Internet

Comment Google fonctionne?

reusement, les spammeurs ont compris comment créer des robots automatisés qui ont bombardé la forme d'URL de complément avec des millions d'URL pointant vers la propagande commerciale. Google rejette ces URLs soumises par sa forme de l'URL d'ajouter qu'il soupçonne tentent de tromper les utilisateurs en employant des tactiques telles que y compris le texte ou des liens cachés sur une page, la farce une page avec des mots non pertinents, cloaking (aka bait and switch), en utilisant de redirections trompeuses , en créant des passerelles, des domaines ou sous-domaines avec un contenu essentiellement semblable, l'envoi de requêtes automatiques à Google, et un lien vers mauvais voisins.

Alors maintenant, la forme de l'URL Ajouter a aussi un test: il affiche quelques lettres ondulées conçus pour tromper automatisé «lettre-guessers"; il vous demande d'entrer les lettres que vous voyez - quelque chose comme un test oeil-chart pour arrêter les robots des spammeurs. Lorsque Googlebot récupère une page, il cueille tous les liens figurant sur la page et les ajoute à une file d'attente pour l'analyse ultérieure. Googlebot tend à rencontrer peu de spam, car la plupart des auteurs de Web Link seulement pour ce qu'ils croient être les pages de haute qualité.

Par des liens de récolte de chaque page qu'il rencontre, Googlebot peut rapidement construire une liste de liens qui peuvent couvrir de larges tronçons de la bande. Cette technique, connue sous le nom ramper profonde, permet également Googlebot pour sonder profondément dans des sites particuliers. En raison de leur grande échelle, les analyses profondes peuvent atteindre presque à chaque page dans le Web. Parce que le web est vaste, cela peut prendre un certain temps, de sorte que certaines pages peut être analysé qu'une fois par mois.

Bien que sa fonction est simple, Googlebot doit être programmé pour gérer plusieurs défis. Premièrement, étant donné Googlebot envoie des demandes simultanées pour des milliers de pages, la file d'attente de «visiter bientôt» URL doit être constamment examinées et comparées avec des URL déjà dans l'index de Google. Doublons dans la file d'attente doivent être éliminés pour empêcher Googlebot d'aller chercher de la même page. Googlebot doit déterminer la fréquence de revisiter une page. D'une part, il est un gaspillage de ressources à ré-indexer une page inchangée.

D'autre part, Google veut ré-indexer les pages modifiées pour offrir une mise à jour des résultats. Pour garder le courant d

Page   <<  [1] [2] [3] [4] >>
Copyright © 2008 - 2016 Lecture Éducation Articles,https://lecture.nmjjxx.com All rights reserved.