Пошуковий робот: відмінності між версіями

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку
[перевірена версія][перевірена версія]
Вилучено вміст Додано вміст
Немає опису редагування
Контроль включення шаблону
Рядок 15: Рядок 15:
{{додаткові джерела}}
{{додаткові джерела}}


{{Інтернет}}
{{Веб-сайти}}
{{Веб-сайти}}
{{ВП-портали|Інформаційні технології|}}
{{ВП-портали|Інформаційні технології|}}

Версія за 09:13, 30 липня 2019

Пошуковий робот (також англ. web crawler, англ. web spider) — програма, що є складовою частиною пошукової системи та призначена для обходу сторінок інтернету з метою занесення інформації про них (ключових слів) до бази даних.

Пошукові роботи здійснюють загальний пошук інформації в Інтернеті. Вони повідомляють про зміст знайденого документа, індексують його і добувають підсумкову інформацію. Вони також переглядають заголовки, деякі посилання і відправляють проіндексовану інформацію до бази даних пошукового механізму.

Як закрити сайт від індексації

  1. За допомогою файла robots.txt
  2. За допомогою мета-тегу

Посилання