Un moteur de recherche possède un robot (appelé aussi crawler ou spider) qui parcourt le Web et va de lien en lien et stocke le contenu des pages qu'il visite dans un index. L'usager va saisir des mots clef et le moteur va ensuite rechercher dans son index les pages contenant ces termes de recherche. Il les classe ensuite en fonction de certains critères de pertinence.
Un métamoteur permet d'adresser simultanément une même requête à différents moteurs de recherche. Le vrai inconvénient est qu'il ne reprend pas les fonctions avancées des moteurs de recherche (recherche dans les champs, dans les domaines...). De plus, les requêtes valables pour un moteur ne le sont pas toujours pour un métamoteur.

                                                                                  Les Moteurs de recherche :

                                                                                        Les Métamoteurs :


Retour