Il est évidemment une méthodologie complexe, mais peut être facilement appliquée à comprendre la relation entre certains mots dans un paragraphe ou dans un document. Cette méthodologie est utilisée lors de l'indexation d'une page dans database.Delving du moteur de recherche plus profonde, LSI est préoccupé non seulement d'étudier un document pour les mots clés et de les recenser dans la base de données, mais aussi d'étudier une collection de documents et de reconnaître et d'identifier les mots qui sont communs entre ces documents.
De cette façon, il peut conclure sur la relation sémantique entre les mots utilisés dans ces documents. Le processus se retrouve alors quels autres documents comprennent ou fait usage de ces mots sémantiquement proches. Les documents qui en résultent sont indexés pour être lié ou étroitement liés à un contexte, selon sémantique latente indexing.LSI ce qui concerne les documents avec une certaine proportion de mots utilisé fréquemment pour être sémantiquement proches. Si il ya moins de mots communs entre les documents, ils sont censés être sémantiquement éloignés.
Par conséquent, LSI présente interdépendance de mesure et évalue la pertinence de tout document sur une échelle de 0 à 1. Contrairement recherches régulières de mots clés, LSI peut reconnaître la mesure de la proximité est un document à un autre ou quelle est la pertinence des informations d'identification à un particulier context.Let Considérons un exemple ici.
Dans un document qui traite de Stephen Covey et sa prédication, des mots tels que, «habitudes» «efficace», «interdépendance», «indépendance», «paradigme» «synergique», «continuum», «victoire publique», «la victoire privée »,« cercle d'influence »et ainsi de suite serait trouvée fréquemment. Une fois l'outil d'indexation des moteurs de recherche qui utilise la technique de LSI reconnaît ces mots couramment utilisés à partir d'un ensemble donné de documents, il peut trouver d'autres documents ou pages Web sur le net qui contient le même ensemble