Как поисковые системы сканируют веб-сайты, не блокируясь?

#web-scraping

Вопрос:

Поисковые системы используют HTML-код веб-сайта для улучшения поиска, поиска обратных ссылок и отображения соответствующих описаний сайтов пользователям (среди прочего).

Тем не менее, некоторые веб-сайты используют программное обеспечение, такое как Cloudflare или reCAPTCHA, для обнаружения и блокирования автоматических запросов GET (можно найти на таких сайтах, как Angel.co или crunchbase.com). Хотя эти системы реализованы на этих веб-сайтах, поисковые системы по-прежнему могут индексировать и получать содержимое своих веб-страниц.

Как они это делают?